0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

AI初創(chuàng)企業(yè)推MoE混合專家模型架構(gòu)新品abab 6.5

微云疏影 ? 來源:綜合整理 ? 作者:綜合整理 ? 2024-04-17 15:06 ? 次閱讀

4 月 17 日,國內(nèi)人工智能初創(chuàng)公司 MiniMax 稀宇科技宣布推出采用混合專家模型架構(gòu)的 losoev 6.5 系列模型,其核心性能已接近 GPT-4、Claude-3 和 Gemini-1.5。

losoev 6.5 系列包含兩款模型:

losoev 6.5:擁有萬億級別的參數(shù),可處理 200k tokens 的上下文長度;

losoev 6.5s:與 losoev 6.5 共享相同的訓(xùn)練技術(shù)和數(shù)據(jù),但效率更高,同樣支持 200k tokens 的上下文長度,且能夠在 1 秒鐘內(nèi)處理近 3 萬字的文本。

自今年 1 月份推出國內(nèi)首款基于 MoE 架構(gòu)的 losoev 6 模型以來,MiniMax 通過優(yōu)化模型架構(gòu)、重建數(shù)據(jù)管道、改進(jìn)訓(xùn)練算法以及實施并行訓(xùn)練策略等手段,在加速模型擴展方面取得了顯著進(jìn)展。

在 200k token 的范圍內(nèi),官方對 losoev 6.5 進(jìn)行了業(yè)內(nèi)常見的“大海撈針”測試,即將一句與原文無關(guān)的句子插入長文本中,然后通過自然語言詢問模型,觀察其能否準(zhǔn)確識別出這句話。經(jīng)過 891 次測試,losoev 6.5 均能準(zhǔn)確回答問題。

losoev 6.5 和 losoev 6.5s 模型將逐步應(yīng)用于 MiniMax 旗下的產(chǎn)品,如海螺 AI 和 MiniMax 開放平臺。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 算法
    +關(guān)注

    關(guān)注

    23

    文章

    4552

    瀏覽量

    92023
  • 人工智能
    +關(guān)注

    關(guān)注

    1787

    文章

    46061

    瀏覽量

    235018
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3032

    瀏覽量

    48360
收藏 人收藏

    評論

    相關(guān)推薦

    浪潮信息發(fā)布“源2.0-M32”開源大模型

    浪潮信息近日推出了革命性的“源2.0-M32”開源大模型。該模型在源2.0系列基礎(chǔ)上,引入了“基于注意力機制的門控網(wǎng)絡(luò)”技術(shù),構(gòu)建了一個包含32個專家混合
    的頭像 發(fā)表于 05-29 09:08 ?521次閱讀

    騰訊云大模型價格調(diào)整:混元-lite、混元-standard免費,混元-pro降價

    據(jù)了解,騰訊混元大模型是騰訊全鏈路自研的萬億參數(shù)大模型,采用混合專家模型MoE)結(jié)構(gòu),
    的頭像 發(fā)表于 05-23 17:05 ?634次閱讀

    人大系初創(chuàng)公司智子引擎發(fā)布全新多模態(tài)大模型Awaker 1.0

    人大系初創(chuàng)公司智子引擎近日震撼發(fā)布了新一代多模態(tài)大模型Awaker 1.0,這一里程碑式的成果標(biāo)志著公司在通用人工智能(AGI)領(lǐng)域取得了重要突破。與前代ChatImg序列模型相比,Awaker 1.0憑借其獨特的
    的頭像 發(fā)表于 05-06 09:59 ?471次閱讀

    MOE與MOT:提升LLM效能的關(guān)鍵策略比較

    MoE 與 MoT:在專家混合中(左),每個令牌都被路由到不同的專家前饋層。在令牌混合(右)中,每組內(nèi)的令牌被
    的頭像 發(fā)表于 04-15 09:53 ?543次閱讀
    <b class='flag-5'>MOE</b>與MOT:提升LLM效能的關(guān)鍵策略比較

    AI初創(chuàng)企業(yè)Suno發(fā)布首款音樂AI生成模型SunoV3

    美國人工智能初創(chuàng)企業(yè)Suno近日震撼發(fā)布其首款音樂AI生成模型——SunoV3。這款創(chuàng)新產(chǎn)品已正式登陸其官方網(wǎng)站,并向所有用戶免費開放使用,標(biāo)志著音樂創(chuàng)作領(lǐng)域邁入了全新的智能化時代。
    的頭像 發(fā)表于 03-26 09:17 ?960次閱讀

    英特爾與Arm聯(lián)手助力初創(chuàng)企業(yè)開發(fā)Arm架構(gòu)SoC

    據(jù)介紹,此次合作旨在聯(lián)合推動使用Intel 18A制程工藝研發(fā)Arm架構(gòu)SoC的初創(chuàng)企業(yè)發(fā)展。英特爾和Arm將攜手提供IP和制造及相關(guān)金融支持,助力初創(chuàng)
    的頭像 發(fā)表于 03-25 15:34 ?282次閱讀

    微軟支付6.5億美元獲得Inflection AIAI模型授權(quán)

    微軟近日宣布向人工智能初創(chuàng)公司Inflection AI支付高達(dá)6.5億美元的巨額資金,這一舉動在業(yè)內(nèi)引起了廣泛關(guān)注。據(jù)悉,這筆資金主要用于獲得Inflection AI
    的頭像 發(fā)表于 03-25 10:39 ?417次閱讀

    蘋果發(fā)布300億參數(shù)MM1多模態(tài)大模型

    近日,科技巨頭蘋果公司在一篇由多位專家共同撰寫的論文中,正式公布了其最新的多模態(tài)大模型研究成果——MM1。這款具有高達(dá)300億參數(shù)的多模態(tài)模型系列,由密集模型
    的頭像 發(fā)表于 03-19 11:19 ?690次閱讀

    微軟攜手法國AI初創(chuàng)企業(yè)Mistral推動AI模型商業(yè)化

    微軟近日與法國人工智能初創(chuàng)企業(yè)Mistral達(dá)成合作協(xié)議,旨在推動AI模型的商業(yè)化應(yīng)用。據(jù)悉,微軟將提供全方位支持,幫助這家成立僅10個月的公司將其先進(jìn)的
    的頭像 發(fā)表于 02-28 10:23 ?411次閱讀

    昆侖萬維發(fā)布新版MoE大語言模型天工2.0

    昆侖萬維科技今日震撼發(fā)布全新升級的「天工2.0」MoE大語言模型以及配套的新版「天工AI智能助手」APP。此次更新標(biāo)志著國內(nèi)首個搭載MoE架構(gòu)
    的頭像 發(fā)表于 02-06 16:19 ?1147次閱讀

    幻方量化發(fā)布了國內(nèi)首個開源MoE模型—DeepSeekMoE

    幻方量化旗下組織深度求索發(fā)布了國內(nèi)首個開源 MoE模型 —— DeepSeekMoE,全新架構(gòu),免費商用。
    的頭像 發(fā)表于 01-23 11:28 ?1295次閱讀
    幻方量化發(fā)布了國內(nèi)首個開源<b class='flag-5'>MoE</b>大<b class='flag-5'>模型</b>—DeepSeekMoE

    對標(biāo)OpenAI GPT-4,MiniMax國內(nèi)首個MoE大語言模型全量上線

    MoE 架構(gòu)全稱專家混合(Mixture-of-Experts),是一種集成方法,其中整個問題被分為多個子任務(wù),并將針對每個子任務(wù)訓(xùn)練一組專家
    的頭像 發(fā)表于 01-16 15:34 ?733次閱讀
    對標(biāo)OpenAI GPT-4,MiniMax國內(nèi)首個<b class='flag-5'>MoE</b>大語言<b class='flag-5'>模型</b>全量上線

    混合專家模型 (MoE)核心組件和訓(xùn)練方法介紹

    隨著 Mixtral 8x7B (announcement, model card) 的推出,一種稱為混合專家模型 (Mixed Expert Models,簡稱 MoEs
    的頭像 發(fā)表于 01-13 09:37 ?1019次閱讀
    <b class='flag-5'>混合</b><b class='flag-5'>專家</b><b class='flag-5'>模型</b> (<b class='flag-5'>MoE</b>)核心組件和訓(xùn)練方法介紹

    SambaNova類ChatGPT開源模型BLOOMChat之后再AI芯片SN40L

    SambaNova類ChatGPT開源模型BLOOMChat之后再AI芯片SN40L SambaNova是硅谷AI芯片
    的頭像 發(fā)表于 09-27 16:05 ?1397次閱讀

    2023 NVIDIA 初創(chuàng)企業(yè)展示北京站(火山引擎專場)圓滿收官!

    ,聚焦大語言模型、生成式 AI、元宇宙等領(lǐng)域,圍繞 NVIDIA 技術(shù)專家賦能、項目路演、需求交流、福利市場和投融資對接等展開。 活動現(xiàn)場,NVIDIA 攜手火山引擎圍繞大語言模型、生
    的頭像 發(fā)表于 09-26 18:35 ?719次閱讀
    2023 NVIDIA <b class='flag-5'>初創(chuàng)</b><b class='flag-5'>企業(yè)</b>展示北京站(火山引擎專場)圓滿收官!