0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

Mistral AI發(fā)布1760億參數(shù)開源模型Mixtral 8x22B,兼容Torrent

微云疏影 ? 來源:綜合整理 ? 作者:綜合整理 ? 2024-04-11 14:34 ? 次閱讀

據(jù)了解,Mistral AI于近期發(fā)布了名為Mixtral 8x22B的開源模型,該模型擁有1760億個參數(shù), Context長度高達6.5萬token,可通過Torrent下載獲取。

作為一家備受矚目的新興AI企業(yè),Mistral AI因其“6人團隊,7頁PPT,8億融資”的傳奇故事而聲名遠揚。尤其值得一提的是,該公司曾獲得微軟投資,使之順利駛入高速發(fā)展軌道。

今日,Mistral AI正式發(fā)布了Mixtral 8x22B模型,并提供了Torrent種子鏈接供用戶下載。該模型文件大小達到了驚人的281GB,用戶既可通過磁力鏈接直接下載,也可選擇Hugging Face和Perplexity AI Labs等平臺進行下載。

盡管Mixtral 8x22B模型擁有龐大的1760億個參數(shù)以及6.5萬個token的Context長度,但為了提高使用靈活性,該模型還支持僅調用部分模型(440億參數(shù))來完成特定任務。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關注

    關注

    87

    文章

    28875

    瀏覽量

    266199
  • 開源
    +關注

    關注

    3

    文章

    3125

    瀏覽量

    42067
  • 模型
    +關注

    關注

    1

    文章

    3032

    瀏覽量

    48348
收藏 人收藏

    評論

    相關推薦

    Mistral AI與NVIDIA推出全新語言模型Mistral NeMo 12B

    Mistral AI 和 NVIDIA 于近日共同發(fā)布了一款全新的領先語言模型Mistral NeMo 12
    的頭像 發(fā)表于 07-27 11:04 ?543次閱讀

    Meta即將發(fā)布超強開源AI模型Llama 3-405B

    在人工智能領域的激烈競爭中,Meta公司再次擲出重磅炸彈,宣布將于7月23日正式發(fā)布其最新力作——Llama 3-405B,一個擁有驚人4050參數(shù)
    的頭像 發(fā)表于 07-18 09:58 ?836次閱讀

    NVIDIA最新GPU帶動,液冷服務器市占有望從1%提升到15%

    電子發(fā)燒友網(wǎng)報道(文/黃晶晶)數(shù)據(jù)中心向來是耗電大戶,過去出于更經(jīng)濟的考慮氣冷型服務器占據(jù)主流,如今隨著大語言模型的快速發(fā)展以及Meta的Llama-3和MistralMixtral 8x2
    的頭像 發(fā)表于 06-14 09:11 ?2905次閱讀
    NVIDIA最新GPU帶動,液冷服務器市占有望從1%提升到15%

    Mistral AI將達成約6美元融資協(xié)議

    法國AI領域的佼佼者Mistral AI近日宣布,即將完成一筆高達6美元的融資協(xié)議。此輪融資不僅將Mistral
    的頭像 發(fā)表于 05-11 10:15 ?287次閱讀

    通義千問推出1100參數(shù)開源模型

    通義千問近日震撼發(fā)布1100參數(shù)開源模型Qwen1.5-110B,這一舉措標志著通義千問在
    的頭像 發(fā)表于 05-06 10:49 ?473次閱讀

    微軟發(fā)布phi-3AI模型,性能超越GPT-3.5

    微軟稱,帶有38參數(shù)的phi-3-mini經(jīng)過3.3萬億token的強化學習,其基礎表現(xiàn)已經(jīng)超過Mixtral 8x7B及GPT-3.5;此外,該
    的頭像 發(fā)表于 04-23 14:32 ?432次閱讀

    Mistral Large模型現(xiàn)已在Amazon Bedrock上正式可用

    Mistral 7BMixtral 8x7B模型。今天,Mistral
    的頭像 發(fā)表于 04-08 16:26 ?405次閱讀

    IBM在watsonx上提供開源Mistral AI模型

    IBM 提供 Mixtral-8x7B 的優(yōu)化版本,該版本可將延遲時間最多縮短 75% IBM、第三方和開源模型的目錄不斷增加,為客戶提供更多選擇和靈活性 是 watsonx 人工智能與數(shù)據(jù)平臺
    的頭像 發(fā)表于 03-12 19:10 ?1250次閱讀

    Mistral AI發(fā)布旗艦大模型Mistral Large及聊天機器人Le Chat

    近日,歐洲人工智能領域的領軍企業(yè)Mistral AI發(fā)布了其旗艦大模型Mistral Large,并同步推出了首個聊天機器人產(chǎn)品Le Cha
    的頭像 發(fā)表于 03-04 14:04 ?713次閱讀

    微軟攜手法國AI初創(chuàng)企業(yè)Mistral推動AI模型商業(yè)化

    微軟近日與法國人工智能初創(chuàng)企業(yè)Mistral達成合作協(xié)議,旨在推動AI模型的商業(yè)化應用。據(jù)悉,微軟將提供全方位支持,幫助這家成立僅10個月的公司將其先進的AI
    的頭像 發(fā)表于 02-28 10:23 ?408次閱讀

    微軟21美元投資法國AI公司Mistral AI

    微軟近日宣布向法國人工智能公司Mistral AI注資20歐元(約合21美元),以推動生成式人工智能領域的發(fā)展。此舉不僅加強了微軟在全球AI
    的頭像 發(fā)表于 02-28 10:08 ?361次閱讀

    Mistral發(fā)布Mistral Large旗艦模型,但沒有開源

    昨夜,被稱為“法國版 OpenAI”的 Mistral AI 再放大招,正式發(fā)布 Mistral Large 旗艦模型,并且推出對標 Cha
    的頭像 發(fā)表于 02-27 13:34 ?610次閱讀
    <b class='flag-5'>Mistral</b><b class='flag-5'>發(fā)布</b><b class='flag-5'>Mistral</b> Large旗艦<b class='flag-5'>模型</b>,但沒有<b class='flag-5'>開源</b>

    最佳開源模型刷新多項SOTA,首次超越Mixtral Instruct!「開源版GPT-4」家族迎來大爆發(fā)

    Mixtral 8x7B模型開源后,AI社區(qū)再次迎來一大波微調實踐。來自Nous Research應用研究小組團隊微調出新一代大
    的頭像 發(fā)表于 01-30 15:29 ?795次閱讀
    最佳<b class='flag-5'>開源</b><b class='flag-5'>模型</b>刷新多項SOTA,首次超越<b class='flag-5'>Mixtral</b> Instruct!「<b class='flag-5'>開源</b>版GPT-4」家族迎來大爆發(fā)

    年度最熱AI應用TOP 50,除了ChatGPT還有這么多寶藏

    還有一款開源模型Mistral AI推出的Mixtral 7B
    的頭像 發(fā)表于 01-15 16:25 ?1045次閱讀

    阿里云通義千問720參數(shù)模型宣布開源

    12月1日,阿里云通義千問720參數(shù)模型Qwen-72B宣布開源。與此同時,他們還開源了18
    的頭像 發(fā)表于 12-01 17:08 ?1204次閱讀