近日,AMD在Huggingface平臺(tái)上正式推出了自家首款“小語(yǔ)言模型”——AMD-Llama-135m。這款模型以其獨(dú)特的推測(cè)解碼功能,吸引了業(yè)界的廣泛關(guān)注。
AMD-Llama-135m模型擁有6700億個(gè)token,并采用了Apache 2.0開(kāi)源許可,為用戶提供了更多的靈活性和自由度。據(jù)AMD介紹,該模型主打“推測(cè)解碼”能力,這一功能的基本原理是通過(guò)使用一個(gè)小型草稿模型來(lái)生成一組候選token,然后由更大的目標(biāo)模型對(duì)這些候選token進(jìn)行驗(yàn)證。這種方法不僅能夠確保生成的token的準(zhǔn)確性和可靠性,而且允許每次前向傳遞生成多個(gè)token,從而顯著提高了效率。
與傳統(tǒng)的AI模型相比,AMD-Llama-135m在RAM占用方面也有了顯著的優(yōu)化。由于采用了推測(cè)解碼技術(shù),該模型能夠在不影響性能的前提下,減少RAM的占用,實(shí)現(xiàn)了更加高效的計(jì)算和存儲(chǔ)資源利用。
AMD-Llama-135m的發(fā)布,標(biāo)志著AMD在AI領(lǐng)域邁出了重要的一步。未來(lái),AMD將繼續(xù)致力于AI技術(shù)的研發(fā)和創(chuàng)新,為全球用戶提供更加智能、高效和可靠的解決方案。
-
amd
+關(guān)注
關(guān)注
25文章
5417瀏覽量
133786 -
AI
+關(guān)注
關(guān)注
87文章
29707瀏覽量
268024 -
模型
+關(guān)注
關(guān)注
1文章
3105瀏覽量
48643
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論