0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

愛芯通元NPU完成Llama 3和Phi-3大模型適配,推動AI大模型技術(shù)普及

愛芯元智AXERA ? 來源:愛芯元智AXERA ? 2024-04-26 16:57 ? 次閱讀

背景

AI大模型技術(shù)的持續(xù)進步正在推動千行百業(yè)智能化升級。近日,Meta、Microsoft相繼發(fā)布具有里程碑意義的Llama 3系列和Phi-3系列模型,其中Llama 3包括8B、70B兩種規(guī)格,Phi-3包括mini(3.8B)、small(7B)、medium(14B)三種規(guī)格。為了進一步給開發(fā)者提供更多嘗鮮,愛芯元智的NPU工具鏈團隊迅速響應(yīng),已基于AX650N平臺完成 Llama 3 8B和Phi-3-mini模型適配。

Llama 3

上周五,Meta發(fā)布了Meta Llama 3系列語言模型(LLM),具體包括一個8B模型和一個70B模型在測試基準中,Llama 3模型的表現(xiàn)相當出色,在實用性和安全性評估中,與那些市面上流行的閉源模型不相上下。

ef8a8238-03a9-11ef-a297-92fbcf53809c.png

在架構(gòu)層面,Llama 3選擇了標準的僅解碼(decoder-only)式Transformer架構(gòu),采用包含128K token詞匯表的分詞器。Llama 3使用了超過15T的公開數(shù)據(jù)進行訓(xùn)練,其中5%為非英文數(shù)據(jù),涵蓋30多種語言,訓(xùn)練數(shù)據(jù)量是前代Llama 2的七倍。

根據(jù)Meta的測試結(jié)果,Llama 3 8B模型在MMLU、GPQA、HumanEval等多項性能基準上均超過了Gemma 7B和Mistral 7B Instruct,70B模型則超越了名聲在外的閉源模型Claude 3的中間版本Sonnet,和谷歌的Gemini Pro 1.5相比三勝兩負。

efa71060-03a9-11ef-a297-92fbcf53809c.png

實際上板結(jié)果

目前AX650N已經(jīng)完成了Llama 3 8B Int8版本的適配,若采用Int4量化,每秒token數(shù)還能再翻一倍,能滿足正常的人機交流。

Phi-3

Llama 3剛發(fā)布沒多久,競爭對手就來了,而且是可以在手機上運行的小體量模型。

本周二,微軟發(fā)布了自研小尺寸模型Phi-3。盡管Phi-3-mini被優(yōu)化至可部署在手機上,但它的性能可以與Mixtral 8x7B和GPT-3.5等模型相媲美。微軟表示,該創(chuàng)新主要在于用了質(zhì)量更好的訓(xùn)練數(shù)據(jù)集。

efcbd13e-03a9-11ef-a297-92fbcf53809c.jpg

efe2ec48-03a9-11ef-a297-92fbcf53809c.png

實際上板結(jié)果

目前AX650N已經(jīng)完成了Phi-3-mini Int8版本的適配,已能滿足正常的人機交流。

其他成果

AX650N能第一時間完成Llama 3和Phi-3的適配,源于今年以來相關(guān)團隊悄悄完成了現(xiàn)有NPU工具鏈針對大語言模型的支持和調(diào)優(yōu)。目前除了Llama 3之外,已經(jīng)完成了Llama 2、TinyLlama、Phi-2、Qwen1.5、ChatGLM3等國內(nèi)外主流的開源大語言模型適配。



審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • NPU
    NPU
    +關(guān)注

    關(guān)注

    2

    文章

    247

    瀏覽量

    18384
  • 愛芯元智
    +關(guān)注

    關(guān)注

    1

    文章

    65

    瀏覽量

    4658
  • LLM
    LLM
    +關(guān)注

    關(guān)注

    0

    文章

    247

    瀏覽量

    279
  • AI大模型
    +關(guān)注

    關(guān)注

    0

    文章

    281

    瀏覽量

    213

原文標題:愛芯通元NPU完成Llama 3和Phi-3大模型適配,推動AI大模型技術(shù)應(yīng)用普及

文章出處:【微信號:愛芯元智AXERA,微信公眾號:愛芯元智AXERA】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    在英特爾酷睿Ultra7處理器上優(yōu)化和部署Phi-3-min模型

    2024年4月23日,微軟研究院公布Phi-3系列AI模型,包含三個版本:mini(3.8B參數(shù))、small(7B參數(shù))以及medium(14B參數(shù))。phi-3-mini是一個擁
    的頭像 發(fā)表于 08-30 16:58 ?334次閱讀
    在英特爾酷睿Ultra7處理器上優(yōu)化和部署<b class='flag-5'>Phi-3</b>-min<b class='flag-5'>模型</b>

    NVIDIA AI Foundry 為全球企業(yè)打造自定義 Llama 3.1 生成式 AI 模型

    借助 NVIDIA AI Foundry,企業(yè)和各國現(xiàn)在能夠使用自有數(shù)據(jù)與 Llama 3.1 405B 和 NVIDIA Nemotron 模型配對,來構(gòu)建“超級模型” NVIDIA
    發(fā)表于 07-24 09:39 ?622次閱讀
    NVIDIA <b class='flag-5'>AI</b> Foundry 為全球企業(yè)打造自定義 <b class='flag-5'>Llama</b> 3.1 生成式 <b class='flag-5'>AI</b> <b class='flag-5'>模型</b>

    Meta即將發(fā)布超強開源AI模型Llama 3-405B

    在人工智能領(lǐng)域的激烈競爭中,Meta公司再次擲出重磅炸彈,宣布將于7月23日正式發(fā)布其最新力作——Llama 3-405B,一個擁有驚人4050億參數(shù)的開源大模型。這一舉措不僅標志著Meta在
    的頭像 發(fā)表于 07-18 09:58 ?837次閱讀

    智發(fā)布“AI處理器”

    在近日隆重召開的世界人工智能大會(WAIC)這一全球科技盛會上,智科技有限公司憑借其深厚的AI技術(shù)研發(fā)實力,正式推出了劃時代的“
    的頭像 發(fā)表于 07-09 09:35 ?287次閱讀

    摩爾線程和滴普科技完成模型訓(xùn)練與推理適配

    近日,摩爾線程與滴普科技宣布了一項重要合作成果。摩爾線程的夸娥(KUAE)千卡智算集群與滴普科技的企業(yè)大模型Deepexi已完成訓(xùn)練及推理適配,共同實現(xiàn)了700億參數(shù)LLaMA2大語言
    的頭像 發(fā)表于 05-30 10:14 ?416次閱讀

    微軟發(fā)布視覺型AI模型Phi-3-vision

     據(jù)悉,Phi-3-vision 作為微軟 Phi-3 家族的首款多模態(tài)模型,繼承自 Phi-3-mini 的文本理解能力,兼具輕巧便攜特性,適用于移動平臺/嵌入式終端;
    的頭像 發(fā)表于 05-27 15:56 ?384次閱讀

    英特爾優(yōu)化AI產(chǎn)品組合,助力微軟Phi-3家族模型

    近日,英特爾宣布針對微軟的Phi-3家族開放模型,成功驗證并優(yōu)化了其跨客戶端、邊緣及數(shù)據(jù)中心的AI產(chǎn)品組合。這一重要舉措旨在提供更為靈活和高效的AI解決方案。
    的頭像 發(fā)表于 05-27 11:47 ?573次閱讀

    英特爾與微軟合作在其AI PC及邊緣解決方案中支持多種Phi-3模型

    近日,英特爾針對微軟的多個Phi-3家族的開放模型,驗證并優(yōu)化了其跨客戶端、邊緣和數(shù)據(jù)中心的AI產(chǎn)品組合。
    的頭像 發(fā)表于 05-27 11:15 ?444次閱讀

    Meta Llama 3基礎(chǔ)模型現(xiàn)已在亞馬遜云科技正式可用

    亞馬遜云科技近日宣布,Meta公司最新發(fā)布的兩款Llama 3基礎(chǔ)模型——Llama 3 8B和Llam
    的頭像 發(fā)表于 05-09 10:39 ?281次閱讀

    英特爾AI產(chǎn)品助力其運行Meta新一代大語言模型Meta Llama 3

    英特爾豐富的AI產(chǎn)品——面向數(shù)據(jù)中心的至強處理器,邊緣處理器及AI PC等產(chǎn)品為開發(fā)者提供最新的優(yōu)化,助力其運行Meta新一代大語言模型Meta Llama
    的頭像 發(fā)表于 04-28 11:16 ?469次閱讀

    NVIDIA加速微軟最新的Phi-3 Mini開源語言模型

    NVIDIA 宣布使用 NVIDIA TensorRT-LLM 加速微軟最新的 Phi-3 Mini 開源語言模型。TensorRT-LLM 是一個開源庫,用于優(yōu)化從 PC 到云端的 NVIDIA GPU 上運行的大語言模型推理
    的頭像 發(fā)表于 04-28 10:36 ?393次閱讀

    Meta推出最強開源模型Llama 3 要挑戰(zhàn)GPT

    Meta推出最強開源模型Llama 3 要挑戰(zhàn)GPT Facebook母公司Meta Platforms(META.US)推出了開源AI模型
    的頭像 發(fā)表于 04-19 17:00 ?713次閱讀

    Meta推出新一代語言模型LLAMA 3,性能優(yōu)于GPT-3.5

    Meta決定將Llama 3的80億參數(shù)版開源,以期讓更多人能夠接觸到尖端的AI技術(shù)。全球范圍內(nèi)的開發(fā)者、研究員以及對AI充滿好奇的人士均可
    的頭像 發(fā)表于 04-19 10:21 ?700次閱讀

    【飛騰派4G版免費試用】仙女姐姐的嵌入式實驗室之五~LLaMA.cpp及3B“小模型”O(jiān)penBuddy-StableLM-3B

    和語法規(guī)則,將這些詞匯串聯(lián)起來,形成一個完整的回答 關(guān)于LLaMALLaMA.cpp LLaMA全稱是Large Language Model Meta AI,是由Meta
    發(fā)表于 12-22 10:18

    派 Pro 開發(fā)板試用體驗】部署派官方Y(jié)OLOV5模型

    、總結(jié) 得益于官方案例,開發(fā)者可以很方便的在智SoC硬件平臺上部署常見的深度學習算法模型,方便開發(fā)者快速評估和適配業(yè)務(wù)。
    發(fā)表于 12-12 22:58