0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

浪潮信息發(fā)布源2.0-M32開源大模型,模算效率大幅提升

浪潮AIHPC ? 來源:浪潮AIHPC ? 2024-05-29 09:34 ? 次閱讀

5月28日,浪潮信息發(fā)布“源2.0-M32”開源大模型。“源2.0-M32”在基于”源2.0”系列大模型已有工作基礎(chǔ)上,創(chuàng)新性地提出和采用了“基于注意力機制的門控網(wǎng)絡(luò)”技術(shù),構(gòu)建包含32個專家(Expert)的混合專家模型(MoE),并大幅提升了模型算力效率,模型運行時激活參數(shù)37億,在業(yè)界主流基準評測中性能全面對標700億參數(shù)的LLaMA3開源大模型。

算法層面,源2.0-M32提出并采用了一種新型的算法結(jié)構(gòu):基于注意力機制的門控網(wǎng)絡(luò)(Attention Router),針對MoE模型核心的專家調(diào)度策略,這種新的算法結(jié)構(gòu)關(guān)注專家模型之間的協(xié)同性度量,有效解決傳統(tǒng)門控網(wǎng)絡(luò)下,選擇兩個或多個專家參與計算時關(guān)聯(lián)性缺失的問題,使得專家之間協(xié)同處理數(shù)據(jù)的水平大為提升。源2.0-M32采用源2.0-2B為基礎(chǔ)模型設(shè)計,沿用并融合局部過濾增強的注意力機制(LFA, Localized Filtering-based Attention),通過先學(xué)習(xí)相鄰詞之間的關(guān)聯(lián)性,然后再計算全局關(guān)聯(lián)性的方法,能夠更好地學(xué)習(xí)到自然語言的局部和全局的語言特征,對于自然語言的關(guān)聯(lián)語義理解更準確,進而提升了模型精度。

9ad71f44-1cea-11ef-b74b-92fbcf53809c.png

Figure1基于注意力機制的門控網(wǎng)絡(luò)(Attention Router)

■ 數(shù)據(jù)層面,源2.0-M32基于2萬億的token進行訓(xùn)練、覆蓋萬億量級的代碼、中英文書籍、百科、論文及合成數(shù)據(jù)。大幅擴展代碼數(shù)據(jù)占比至47.5%,從6類最流行的代碼擴充至619類,并通過對代碼中英文注釋的翻譯,將中文代碼數(shù)據(jù)量增大至1800億token。結(jié)合高效的數(shù)據(jù)清洗流程,滿足大模型訓(xùn)練“豐富性、全面性、高質(zhì)量”的數(shù)據(jù)集需求?;谶@些數(shù)據(jù)的整合和擴展,源2.0-M32在代碼生成、代碼理解、代碼推理、數(shù)學(xué)求解等方面有著出色的表現(xiàn)。

■ 算力層面,源2.0-M32采用了非均勻流水并行的方法,綜合運用流水線并行+數(shù)據(jù)并行的策略,顯著降低了大模型對芯片間P2P帶寬的需求,為硬件差異較大訓(xùn)練環(huán)境提供了一種高性能的訓(xùn)練方法。針對MoE模型的稀疏專家計算,采用合并矩陣乘法的方法,模算效率得到大幅提升。

基于在算法、數(shù)據(jù)和算力方面全面創(chuàng)新,源2.0-M32的性能得以大幅提升,在多個業(yè)界主流的評測任務(wù)中,展示出了較為先進的能力表現(xiàn),在MATH(數(shù)學(xué)競賽)、ARC-C(科學(xué)推理)榜單上超越了擁有700億參數(shù)的LLaMA3大模型。

9b0363c4-1cea-11ef-b74b-92fbcf53809c.jpg

Figure2 源2.0-M32業(yè)界主流評測任務(wù)表現(xiàn)

源2.0-M32大幅提升了模型算力效率,在實現(xiàn)與業(yè)界領(lǐng)先開源大模型性能相當(dāng)?shù)耐瑫r,顯著降低了在模型訓(xùn)練、微調(diào)和推理所需的算力開銷。在模型推理運行階段,M32處理每token所需算力為7.4GFLOPs,而LLaMA3-70B所需算力為140GFLOPs。在模型微調(diào)訓(xùn)練階段,對1萬條平均長度為1024 token的樣本進行全量微調(diào),M32消耗算力約0.0026PD(PetaFLOPs/s-day),而LLaMA3消耗算力約為0.05PD。M32憑借特別優(yōu)化設(shè)計的模型架構(gòu),在僅激活37億參數(shù)的情況下,取得了和700億參數(shù)LLaMA3相當(dāng)?shù)男阅芩?,而所消耗算力僅為LLaMA3的1/19,從而實現(xiàn)了更高的模算效率。

浪潮信息人工智能首席科學(xué)家吳韶華表示:當(dāng)前業(yè)界大模型在性能不斷提升的同時,也面臨著所消耗算力大幅攀升的問題,對企業(yè)落地應(yīng)用大模型帶來了極大的困難和挑戰(zhàn)。源2.0-M32是浪潮信息在大模型領(lǐng)域持續(xù)耕耘的最新探索成果,通過在算法、數(shù)據(jù)、算力等方面的全面創(chuàng)新,M32不僅可以提供與業(yè)界領(lǐng)先開源大模型相當(dāng)?shù)男阅?,更可以大幅降低大模型所需算力消耗?strong>大幅提升的模算效率將為企業(yè)開發(fā)應(yīng)用生成式AI提供模型高性能、算力低門檻的高效路徑。M32開源大模型配合企業(yè)大模型開發(fā)平臺EPAI(Enterprise Platform of AI),將助力企業(yè)實現(xiàn)更快的技術(shù)迭代與高效的應(yīng)用落地,為人工智能產(chǎn)業(yè)的發(fā)展提供堅實的底座和成長的土壤,加速產(chǎn)業(yè)智能化進程。


審核編輯:劉清
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1789

    文章

    46652

    瀏覽量

    237064
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    2274

    瀏覽量

    2356
  • 生成式AI
    +關(guān)注

    關(guān)注

    0

    文章

    480

    瀏覽量

    446

原文標題:浪潮信息發(fā)布源2.0-M32開源大模型,模算效率大幅提升,37億激活參數(shù)性能對標LLaMA3-700億

文章出處:【微信號:浪潮AIHPC,微信公眾號:浪潮AIHPC】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    浪潮信息發(fā)布KOS AI定制版,大幅提升模型訓(xùn)練效率

    浪潮信息近期推出了“元腦服務(wù)器操作系統(tǒng)KOS AI定制版”,為人工智能領(lǐng)域帶來了革命性的變化。這款定制版操作系統(tǒng)通過簡單的兩步操作,即可實現(xiàn)大模型訓(xùn)練環(huán)境的快速部署。
    的頭像 發(fā)表于 10-30 17:23 ?416次閱讀

    浪潮信息源2.0模型與百度PaddleNLP全面適配

    近日,浪潮信息宣布其開源模型2.0已全面適配百度PaddleNLP。這一舉措標志著大模型開發(fā)
    的頭像 發(fā)表于 10-17 18:15 ?438次閱讀

    浪潮信息:元腦企智EPAI助力金融大模型快速落地

    浪潮信息在AI力底座建設(shè)、大模型開發(fā)領(lǐng)域積累的成熟、成功經(jīng)驗工具化,助力金融機構(gòu)又快、又穩(wěn)地部署生成式AI應(yīng)用,助力金融數(shù)智化跨越式發(fā)展。
    的頭像 發(fā)表于 09-20 16:07 ?282次閱讀
    <b class='flag-5'>浪潮信息</b>:元腦企智EPAI助力金融大<b class='flag-5'>模型</b>快速落地

    2.0-M32模型發(fā)布量化版 運行顯存僅需23GB 性能可媲美LLaMA3

    北京2024年8月23日?/美通社/ -- 近日,浪潮信息發(fā)布2.0-M32模型4bit和8bit量化版,性能比肩700億參數(shù)的LLaM
    的頭像 發(fā)表于 08-25 22:06 ?234次閱讀
    <b class='flag-5'>源</b><b class='flag-5'>2.0-M32</b>大<b class='flag-5'>模型</b><b class='flag-5'>發(fā)布</b>量化版 運行顯存僅需23GB 性能可媲美LLaMA3

    浪潮信息攜全棧智產(chǎn)品和方案亮相WAIC 2024

    7月4日,2024世界人工智能大會(WAIC2024)在上海開幕。大會聚焦大模型、力、機器人、自動駕駛等重點領(lǐng)域,吸引眾多國內(nèi)外知名人工智能企業(yè)參會。作為全球領(lǐng)先的IT基礎(chǔ)設(shè)施供應(yīng)商,浪潮信息參加
    的頭像 發(fā)表于 07-05 18:04 ?1414次閱讀

    浪潮信息重磅發(fā)布2.0-M32開源模型

    浪潮信息近日發(fā)布了一款全新的開源模型——“2.0-M32”。這款大
    的頭像 發(fā)表于 06-05 14:50 ?716次閱讀

    浪潮信息發(fā)布2.0-M32開源模型

    浪潮信息近日推出了革命性的“2.0-M32開源模型。該模型
    的頭像 發(fā)表于 05-29 09:08 ?589次閱讀

    浪潮信息發(fā)布為大模型專門優(yōu)化的分布式全閃存儲AS13000G7-N系列

    近日,浪潮信息發(fā)布為大模型專門優(yōu)化的分布式全閃存儲AS13000G7-N系列。該系列依托浪潮信息自研分布式文件系統(tǒng),搭載新一代數(shù)據(jù)加速引擎DataTurbo,
    的頭像 發(fā)表于 05-08 09:38 ?492次閱讀
    <b class='flag-5'>浪潮信息</b><b class='flag-5'>發(fā)布</b>為大<b class='flag-5'>模型</b>專門優(yōu)化的分布式全閃存儲AS13000G7-N系列

    浪潮信息發(fā)布企業(yè)大模型開發(fā)平臺&quot;元腦企智&quot;EPAI,加速AI創(chuàng)新落地

    北京2024年4月18日?/美通社/ -- 4月17日,在2024浪潮信息生態(tài)伙伴大會(IPF2024)上,浪潮信息發(fā)布企業(yè)大模型開發(fā)平臺"元腦企智"EPAI(Enterprise P
    的頭像 發(fā)表于 04-18 21:21 ?415次閱讀
    <b class='flag-5'>浪潮信息</b><b class='flag-5'>發(fā)布</b>企業(yè)大<b class='flag-5'>模型</b>開發(fā)平臺&quot;元腦企智&quot;EPAI,加速AI創(chuàng)新落地

    浪潮信息發(fā)布企業(yè)大模型開發(fā)平臺“元腦企智”EPAI

    4月17日,在2024浪潮信息生態(tài)伙伴大會(IPF2024)上,浪潮信息重磅發(fā)布企業(yè)大模型開發(fā)平臺“元腦企智”EPAI(Enterprise Platform of AI),為企業(yè)AI
    的頭像 發(fā)表于 04-18 10:12 ?350次閱讀
    <b class='flag-5'>浪潮信息</b><b class='flag-5'>發(fā)布</b>企業(yè)大<b class='flag-5'>模型</b>開發(fā)平臺“元腦企智”EPAI

    浪潮信息&quot;2.0&quot;大模型YuanChat支持英特爾最新商用AI PC

    北京2024年3月27日 /美通社/ -- 3月26日, 浪潮信息與英特爾正式宣布,浪潮信息"2.0系列基礎(chǔ)大模型"已和最新的英特爾? 酷
    的頭像 發(fā)表于 03-27 22:52 ?440次閱讀
    <b class='flag-5'>浪潮信息</b>&quot;<b class='flag-5'>源</b><b class='flag-5'>2.0</b>&quot;大<b class='flag-5'>模型</b>YuanChat支持英特爾最新商用AI PC

    浪潮信息與英特爾合作推出一種大模型效率工具“YuanChat”

    3月26日,浪潮信息與英特爾正式宣布,浪潮信息2.0系列基礎(chǔ)大模型”已和最新的英特爾? 酷睿? Ultra處理器平臺完成適配,本地推理速
    的頭像 發(fā)表于 03-27 13:50 ?560次閱讀
    <b class='flag-5'>浪潮信息</b>與英特爾合作推出一種大<b class='flag-5'>模型</b><b class='flag-5'>效率</b>工具“YuanChat”

    潞晨科技Colossal-AI與浪潮信息AIStation完成兼容性互認證

    近日,潞晨科技的Colossal-AI大模型開發(fā)工具和浪潮信息的AIStation智能業(yè)務(wù)創(chuàng)新生產(chǎn)平臺成功完成了兼容性互認證。這一合作意味著用戶可以在AIStation平臺上便捷地部署與調(diào)度Colossal-AI系統(tǒng),從而極大提升
    的頭像 發(fā)表于 03-06 10:18 ?721次閱讀

    潞晨科技Colossal-AI + 浪潮信息AIStation,大模型開發(fā)效率提升10倍

    北京2024年2月29日 /美通社/ -- 近日,潞晨科技Colossal-AI大模型開發(fā)工具與浪潮信息AIStation智能業(yè)務(wù)創(chuàng)新生產(chǎn)平臺完成兼容性互認證?;贏IStation平臺部署與調(diào)度
    的頭像 發(fā)表于 03-01 09:43 ?441次閱讀
    潞晨科技Colossal-AI + <b class='flag-5'>浪潮信息</b>AIStation,大<b class='flag-5'>模型</b>開發(fā)<b class='flag-5'>效率</b><b class='flag-5'>提升</b>10倍

    浪潮信息發(fā)布2.0基礎(chǔ)大模型,千億參數(shù)全面開源

    11月27日,浪潮信息發(fā)布"2.0"基礎(chǔ)大模型,并宣布全面開源。
    的頭像 發(fā)表于 11-28 09:10 ?772次閱讀
    <b class='flag-5'>浪潮信息</b><b class='flag-5'>發(fā)布</b><b class='flag-5'>源</b><b class='flag-5'>2.0</b>基礎(chǔ)大<b class='flag-5'>模型</b>,千億參數(shù)全面<b class='flag-5'>開源</b>