谷歌發(fā)布了用于輔助編程的代碼大模型CodeGemma。CodeGemma 基于谷歌今年 2 月發(fā)布的輕量級開源大模型 Gemma,針對 Gemma 的兩個不同參數(shù)規(guī)模的版本 Gemma 2B 和 Gemma 7B 發(fā)布了 CodeGemma 2B 和 CodeGemma 7B(有預訓練和指令微調(diào)兩種)。
因此 CodeGemma 有 3 個模型變體:
7B 預訓練變體,專門用于補全代碼以及利用代碼前綴和 / 或后綴生成代碼
70 億指令微調(diào)變體,用于自然語言到代碼的聊天和指令遵循
先進的 2B 預訓練變體,代碼補全速度快至 2 倍
CodeGemma 可以執(zhí)行各種編碼任務,例如填充中間代碼補全、代碼生成、自然語言理解、數(shù)學推理和指令遵循。
CodeGemma 具有多項優(yōu)勢:
智能代碼補全和生成:無論您是在本地工作,還是使用 Google Cloud 資源,都可以填寫整行、函數(shù),甚至生成整塊代碼塊。
準確性更高:CodeGemma 模型基于 Web 文檔、數(shù)學和代碼中的 5000 億個詞元(主要是英語)數(shù)據(jù)訓練而成,生成的代碼不僅語法正確,而且語義上也更有意義,從而減少錯誤并縮短調(diào)試時間。
多語言水平:支持 Python、JavaScript、Java、Kotlin、C++、C#、Rust、Go 和其他語言。
簡化工作流:將 CodeGemma 模型集成到開發(fā)環(huán)境中,可以減少編寫樣板代碼的工作量,更快地專注于有趣且與眾不同的代碼。
審核編輯:劉清
-
谷歌
+關(guān)注
關(guān)注
27文章
6080瀏覽量
104346 -
大模型
+關(guān)注
關(guān)注
2文章
2134瀏覽量
1970
原文標題:谷歌發(fā)布代碼大模型 CodeGemma
文章出處:【微信號:TheBigData1024,微信公眾號:人工智能與大數(shù)據(jù)技術(shù)】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
評論