近期,英偉達(dá)與Hugging Face及ServiceNow攜手推出新品StarCoder2系列LLMs模型,致力于在代碼生成領(lǐng)域建立新的行業(yè)標(biāo)桿,憑借諸多優(yōu)勢凸顯性能、透明度以及經(jīng)濟(jì)性。
此系列共包含三款模型,其中ServiceNow負(fù)責(zé)訓(xùn)練的30億參數(shù)模型、Hugging Face訓(xùn)練的70億參數(shù)模型以及英偉達(dá)訓(xùn)練的150億參數(shù)模型。
新一代模型得以實(shí)現(xiàn),借助Stack v2代碼集,該數(shù)據(jù)集容量是上一代Stack v1的7倍之多。此外,創(chuàng)新性的訓(xùn)練技術(shù)使其能夠更精準(zhǔn)地解析低資源編程語言、數(shù)學(xué)和程序源代碼討論等內(nèi)容。
經(jīng)過619門編程語言的訓(xùn)練后,StarCoder2支持多種專業(yè)任務(wù),例如源代碼生成、工作流創(chuàng)建以及文本摘要等。英偉達(dá)承諾,開發(fā)者可借此進(jìn)行代碼填充、高層次代碼摘要以及代碼片段搜索等操作,以提升工作效率。
相比初版StarCoder LLM,這款30億參數(shù)的最新模型對優(yōu)質(zhì)參數(shù)進(jìn)行了更為精確的篩選,性能相當(dāng)于初版150億參數(shù)模型的StarCoder。
特別值得關(guān)注的是,StarCoder2特許使用BigCode Open RAIL-M許可證,無需支付任何版權(quán)費(fèi)用即可享受使用權(quán)。IT之家建議有需用戶前往BigCode項(xiàng)目GitHub頁面下載源代碼,同時(shí)亦可在Hugging Face獲取模型信息。
-
編程語言
+關(guān)注
關(guān)注
10文章
1931瀏覽量
34553 -
數(shù)據(jù)集
+關(guān)注
關(guān)注
4文章
1201瀏覽量
24622 -
英偉達(dá)
+關(guān)注
關(guān)注
22文章
3723瀏覽量
90709
發(fā)布評論請先 登錄
相關(guān)推薦
評論