據(jù)了解,Mistral AI于近期發(fā)布了名為Mixtral 8x22B的開源模型,該模型擁有1760億個參數(shù), Context長度高達6.5萬token,可通過Torrent下載獲取。
作為一家備受矚目的新興AI企業(yè),Mistral AI因其“6人團隊,7頁PPT,8億融資”的傳奇故事而聲名遠揚。尤其值得一提的是,該公司曾獲得微軟投資,使之順利駛入高速發(fā)展軌道。
今日,Mistral AI正式發(fā)布了Mixtral 8x22B模型,并提供了Torrent種子鏈接供用戶下載。該模型文件大小達到了驚人的281GB,用戶既可通過磁力鏈接直接下載,也可選擇Hugging Face和Perplexity AI Labs等平臺進行下載。
盡管Mixtral 8x22B模型擁有龐大的1760億個參數(shù)以及6.5萬個token的Context長度,但為了提高使用靈活性,該模型還支持僅調用部分模型(440億參數(shù))來完成特定任務。
-
AI
+關注
關注
87文章
28875瀏覽量
266199 -
開源
+關注
關注
3文章
3125瀏覽量
42067 -
模型
+關注
關注
1文章
3032瀏覽量
48348
發(fā)布評論請先 登錄
相關推薦
評論