0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

李開復(fù)4個多月后“放大招”:對標(biāo)OpenAI、谷歌,發(fā)布“全球最強”開源大模型

jf_WZTOguxH ? 來源:AI前線 ? 2023-11-06 15:47 ? 次閱讀

今天,由李開復(fù)打造的 AI 大模型創(chuàng)業(yè)公司“零一萬物”發(fā)布了一系列開源大模型:Yi-34B 和 Yi-6B。

Yi-34B 是一個雙語(英語和中文)基礎(chǔ)模型,經(jīng)過 340 億個參數(shù)訓(xùn)練,明顯小于 Falcon-180B 和 Meta LlaMa2-70B 等其他開放模型。在發(fā)布會中,李開復(fù)稱其數(shù)據(jù)采集、算法研究、團隊配置均為世界第一梯隊,對標(biāo) OpenAI、谷歌一線大廠,并抱有成為世界第一的初衷和決心。同時,他表示 Yi-34B 是“全球最強開源模型”,其通用能力、知識推理、閱讀理解等多指標(biāo)均處于全球榜單首位。

零一萬物團隊也進行了一系列打榜測試,具體成績包括:

Hugging Face 英文測試榜單,以 70.72 分?jǐn)?shù)位列全球第一;

以小博大,作為國產(chǎn)大模型碾壓 Llama-2 70B 和 Falcon-180B 等一眾大模型(參數(shù)量僅為后兩者的 1/2、1/5);

C-Eval 中文能力排行榜位居第一,超越了全球所有開源模型;

MMLU、BBH 等八大綜合能力表現(xiàn)全部勝出,Yi-34B 在通用能力、知識推理、閱讀理解等多項指標(biāo)評比中“擊敗全球玩家”;

......

9f292822-7c62-11ee-939d-92fbcf53809c.jpg

9f458350-7c62-11ee-939d-92fbcf53809c.jpg

然而,在發(fā)布中,也有一點需要指出,那就是 Yi 系列模型在 GSM8k 和 MBPP 的數(shù)學(xué)以及代碼測評方面表現(xiàn)不如 GPT 模型出色。這是因為團隊希望在預(yù)訓(xùn)練階段希望先盡可能保留模型的通用能力,所以訓(xùn)練數(shù)據(jù)中沒有加入過多數(shù)學(xué)和代碼數(shù)據(jù)。后續(xù)他們計劃在開源系列中推出專注于代碼和數(shù)學(xué)領(lǐng)域的繼續(xù)訓(xùn)練模型。

200K 上下文窗口, 能處理 40 萬字文本

值得注意的是,此次開源的 Yi-34B 模型,將發(fā)布全球最長、可支持 200K 超長上下文窗口(context window)版本,可以處理約 40 萬漢字超長文本輸入。這意味著 Yi-34B 不僅能提供更豐富的語義信息,理解超過 1000 頁的 PDF 文檔,還讓很多依賴于向量數(shù)據(jù)庫構(gòu)建外部知識庫的場景,都可以用上下文窗口來進行替代。

相比之下,OpenAI 的 GPT-4 上下文窗口只有 32K,文字處理量約 2.5 萬字。今年三月,硅谷知名 AI 2.0 創(chuàng)業(yè)公司 Anthropic 的 Claude2-100K 將上下文窗口擴展到了 100K 規(guī)模,零一萬物直接加倍,并且是第一家將超長上下文窗口在開源社區(qū)開放的大模型公司。

在語言模型中,上下文窗口是大模型綜合運算能力的金指標(biāo)之一,對于理解和生成與特定上下文相關(guān)的文本至關(guān)重要,擁有更長窗口的語言模型可以處理更豐富的知識庫信息,生成更連貫、準(zhǔn)確的文本。

此外,在文檔摘要、基于文檔的問答等下游任務(wù)中,長上下文的能力發(fā)揮著關(guān)鍵作用,行業(yè)應(yīng)用場景廣闊。在法律、財務(wù)、傳媒、檔案整理等諸多垂直場景里,更準(zhǔn)確、更連貫、速度更快的長文本窗口功能,可以成為人們更可靠的 AI 助理,讓生產(chǎn)力得到大幅提升。然而,受限于計算復(fù)雜度、數(shù)據(jù)完備度等問題,上下文窗口規(guī)模擴充從計算、內(nèi)存和通信的角度存在各種挑戰(zhàn),因此大多數(shù)發(fā)布的大型語言模型僅支持幾千 tokens 的上下文長度。為了解決這個限制,零一萬物技術(shù)團隊實施了一系列優(yōu)化,包括:計算通信重疊、序列并行、通信壓縮等。通過這些能力增強,實現(xiàn)了在大規(guī)模模型訓(xùn)練中近 100 倍的能力提升。

實現(xiàn) 40% 訓(xùn)練成本下降

AI Infra(AI Infrastructure 人工智能基礎(chǔ)架構(gòu)技術(shù))主要涵蓋大模型訓(xùn)練和部署提供各種底層技術(shù)設(shè)施,包括處理器操作系統(tǒng)、存儲系統(tǒng)、網(wǎng)絡(luò)基礎(chǔ)設(shè)施、云計算平臺等等,是模型訓(xùn)練背后極其關(guān)鍵的“保障技術(shù)”,這是大模型行業(yè)至今較少受到關(guān)注的硬技術(shù)領(lǐng)域。

李開復(fù)曾經(jīng)表示,“做過大模型 Infra 的人比做算法的人才更稀缺”,而超強的 Infra 能力是大模型研發(fā)的核心護城河之一。在芯片GPU 等算力資源緊缺的當(dāng)下,安全和穩(wěn)定成為大模型訓(xùn)練的生命線。零一萬物的 Infra 技術(shù)通過“高精度”系統(tǒng)、彈性訓(xùn)和接力訓(xùn)等全棧式解決方案,確保訓(xùn)練高效、安全地進行。

憑借其強大的 AI Infra 支撐,零一萬物團隊表示,Yi-34B 模型訓(xùn)練成本實測下降 40%,實際訓(xùn)練完成達標(biāo)時間與預(yù)測的時間誤差不到一小時,進一步模擬上到千億規(guī)模訓(xùn)練成本可下降多達 50%。截至目前,零一萬物 Infra 能力實現(xiàn)故障預(yù)測準(zhǔn)確率超過 90%,故障提前發(fā)現(xiàn)率達到 99.9%,不需要人工參與的故障自愈率超過 95%,有力保障了模型訓(xùn)練的順暢進行。

零一萬物背后

今年 7 月,李開復(fù)博士正式官宣并上線了其籌組的“AI 2.0”新公司:零一萬物。此前李開復(fù)曾表示,AI 大語言模型是中國不能錯過的歷史機遇,零一萬物就是在今年 3 月下旬,由他親自帶隊孵化的新品牌

在接受外媒采訪時,他談到了創(chuàng)辦零一萬物的動機:“我認(rèn)為需求是創(chuàng)新之母,中國顯然存在巨大的需求,”“與其他國際地區(qū)不同,中國無法訪問 OpenAI 和谷歌,因為這兩家公司沒有在中國提供他們的產(chǎn)品。因此,我認(rèn)為有很多人正在努力為市場創(chuàng)造解決方案。這是剛需?!?/p>

眾所周知,構(gòu)建大模型是一項耗資巨大的事業(yè)。為了維持現(xiàn)金密集型業(yè)務(wù),零一萬物從一開始就制定了商業(yè)化計劃。雖然該公司將繼續(xù)開源其一些模型,但其目標(biāo)是構(gòu)建最先進的專有模型,作為各種商業(yè)產(chǎn)品的基礎(chǔ)。

李開復(fù)表示,他們非常清楚這些大型語言模型需要大量計算,花費巨大。“我們籌集到了大量資金,其中大部分都花在了 GPU 上?!迸c中國其他 LLM 玩家一樣,零一萬物也需要積極儲備 GPU 以應(yīng)對美國制裁。在發(fā)布會中,李開復(fù)表示零一萬物現(xiàn)在的供應(yīng)至少足以滿足未來 12-18 個月的需求。

美國的制裁也讓中國企業(yè)注重優(yōu)化計算能力,李開復(fù)表示:“借助一支非常高質(zhì)量的基礎(chǔ)設(shè)施團隊,每 1000 個 GPU,我們也許能夠從中擠出 2000 個 GPU 的工作負(fù)載?!?/p>

從一些報道中,我們可以了解到,零一萬物員工規(guī)模已超過 100 人,半數(shù)是來自國內(nèi)外大廠的 LLM 專家。其中,零一萬物技術(shù)副總裁及 AI Alignment 負(fù)責(zé)人是 Google Bard/Assistant 早期核心成員,主導(dǎo)或參與了從 Bert、LaMDA 到大模型在多輪對話、個人助理、AI Agent 等多個方向的研究和工程落地;首席架構(gòu)師曾在 Google Brain 與 Jeff Dean、Samy Bengio 等合作,為 TensorFlow 的核心創(chuàng)始成員之一。

零一萬物的商業(yè)化之路很大程度上取決于其為其昂貴的 AI 模型找到適合的產(chǎn)品市場的能力?!爸袊诖竽P头矫娌⒉活I(lǐng)先于美國,但毫無疑問,中國可以構(gòu)建比美國開發(fā)商更好的應(yīng)用程序,這主要是因為過去 12 年左右建立的非凡的移動互聯(lián)網(wǎng)生態(tài)系統(tǒng),”李開復(fù)說道。

李開復(fù)表示,這家初創(chuàng)公司的最終目標(biāo)是成為一個外部開發(fā)人員可以輕松構(gòu)建應(yīng)用程序的生態(tài)系統(tǒng)?!拔覀兊穆氊?zé)不僅僅是推出好的研究模型,更重要的是讓應(yīng)用程序開發(fā)變得容易,這樣才能有優(yōu)秀的應(yīng)用程序,”他說?!皻w根結(jié)底。這是一場生態(tài)系統(tǒng)游戲?!?/p>

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 語言模型
    +關(guān)注

    關(guān)注

    0

    文章

    487

    瀏覽量

    10201
  • OpenAI
    +關(guān)注

    關(guān)注

    9

    文章

    988

    瀏覽量

    6252
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    2136

    瀏覽量

    1980

原文標(biāo)題:李開復(fù)4個多月后“放大招”:對標(biāo)OpenAI、谷歌,發(fā)布“全球最強”開源大模型

文章出處:【微信號:AI前線,微信公眾號:AI前線】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    OpenAI發(fā)布o1大模型,數(shù)理化水平比肩人類博士,國產(chǎn)云端推理芯片的新藍海?

    時間思考后再做出回答,而傳統(tǒng)大模型是直接給出回答,但往往這個回答并不準(zhǔn)確。 ? OpenAI介紹稱,OpenAI o1模型解決了很多傳統(tǒng)模型
    發(fā)表于 09-14 00:04 ?1008次閱讀
    <b class='flag-5'>OpenAI</b><b class='flag-5'>發(fā)布</b>o1大<b class='flag-5'>模型</b>,數(shù)理化水平比肩人類博士,國產(chǎn)云端推理芯片的新藍海?

    OpenAI競爭對手Anthropic發(fā)布最強模型Claude 3.5 Sonnet

    AI在不斷加速演進中;各個巨頭也是你追我趕, 今年3月,Anthropic推出了Claude 3系列模型; OpenAI在5月份推出了GPT-4o。 6月Anthropic又推出了Claude
    的頭像 發(fā)表于 06-21 14:52 ?783次閱讀

    OpenAI 深夜拋出王炸 “ChatGPT- 4o”, “她” 來了

    當(dāng)?shù)貢r間5月13日OpenAI推出ChatGPT-4o,代表了人工智能向前邁出的一大步。在GPT-4turbo的強大基礎(chǔ)上,這種迭代擁有顯著的改進。在發(fā)布會的演示中,
    發(fā)表于 05-27 15:43

    OpenAI發(fā)布全新GPT-4o模型

    近日,OpenAI宣布推出全新的GPT-4o模型,標(biāo)志著人工智能領(lǐng)域的一大技術(shù)飛躍。這款模型不僅具備強大的生成能力,還能精準(zhǔn)理解用戶意圖,提供智能化的回答。
    的頭像 發(fā)表于 05-17 11:48 ?543次閱讀

    微軟準(zhǔn)備推出新的AI模型谷歌OpenAI競爭

    據(jù)報道,微軟在向OpenAI投資超過100億美元后,首次成功訓(xùn)練了一名為“MAI-1”的內(nèi)部人工智能模型。這一模型規(guī)模龐大,足以與谷歌、A
    的頭像 發(fā)表于 05-08 10:45 ?458次閱讀

    谷歌發(fā)布用于輔助編程的代碼大模型CodeGemma

    谷歌發(fā)布了用于輔助編程的代碼大模型 CodeGemma。CodeGemma 基于谷歌今年 2 月發(fā)布的輕量級
    的頭像 發(fā)表于 04-17 16:07 ?532次閱讀
    <b class='flag-5'>谷歌</b><b class='flag-5'>發(fā)布</b>用于輔助編程的代碼大<b class='flag-5'>模型</b>CodeGemma

    OpenAI發(fā)布文生視頻大模型Sora、英偉達市值超谷歌

    最新的Sora大模型發(fā)布,可以讓用戶僅通過輸入一句子,就可生成與好萊塢畫面相媲美的視頻,且長度最多可達1分鐘。這震驚了科技界,OpenAI的估值正大幅飆升。市場預(yù)計,在最新一輪由風(fēng)投
    的頭像 發(fā)表于 03-28 18:13 ?753次閱讀

    谷歌交互世界模型重磅發(fā)布

    谷歌模型
    北京中科同志科技股份有限公司
    發(fā)布于 :2024年02月28日 09:13:06

    Mistral發(fā)布Mistral Large旗艦模型,但沒有開源

    昨夜,被稱為“法國版 OpenAI”的 Mistral AI 再放大招,正式發(fā)布 Mistral Large 旗艦模型,并且推出對標(biāo) Cha
    的頭像 發(fā)表于 02-27 13:34 ?615次閱讀
    Mistral<b class='flag-5'>發(fā)布</b>Mistral Large旗艦<b class='flag-5'>模型</b>,但沒有<b class='flag-5'>開源</b>

    谷歌發(fā)布輕量級開源人工智能模型Gemma

    谷歌近日宣布推出開源人工智能(AI)模型系列Gemma,旨在為開發(fā)人員和研究人員提供一負(fù)責(zé)任的AI構(gòu)建平臺。這一舉措標(biāo)志著自2022年OpenAI
    的頭像 發(fā)表于 02-23 11:38 ?693次閱讀

    新火種AI|谷歌深夜炸彈!史上最強開源模型Gemma,打響新一輪AI之戰(zhàn)

    作者:文子 編輯:小迪 谷歌,2024年卷出新高度。 全球最強開源模型,Gemma重燃戰(zhàn)局 短短12天連放三次大招
    的頭像 發(fā)表于 02-23 10:21 ?296次閱讀
    新火種AI|<b class='flag-5'>谷歌</b>深夜炸彈!史上<b class='flag-5'>最強開源</b><b class='flag-5'>模型</b>Gemma,打響新一輪AI之戰(zhàn)

    谷歌大型模型終于開放源代碼,遲到但重要的開源戰(zhàn)略

    在人工智能領(lǐng)域,谷歌可以算是開源的鼻祖。今天幾乎所有的大語言模型,都基于谷歌在 2017 年發(fā)布的 Transformer 論文;
    發(fā)表于 02-22 18:14 ?347次閱讀
    <b class='flag-5'>谷歌</b>大型<b class='flag-5'>模型</b>終于開放源代碼,遲到但重要的<b class='flag-5'>開源</b>戰(zhàn)略

    谷歌發(fā)布全球最強開源模型Gemma

    谷歌近日宣布,其全新開源模型Gemma正式亮相。Gemma被譽為全球性能最強大、同時也是最輕量級的模型
    的頭像 發(fā)表于 02-22 14:51 ?659次閱讀

    谷歌Gemini 1.5深夜爆炸上線,史詩級多模態(tài)硬剛GPT-5!最強MoE首破100萬極限上下文紀(jì)錄

    我們經(jīng)歷了LLM劃時代的一夜。GeminiUltra發(fā)布還沒幾天,Gemini1.5就來了。卯足勁和OpenAI微軟一較高下的谷歌,開始進入了高產(chǎn)模式。自家最強的Gemini1.0Ul
    的頭像 發(fā)表于 02-19 12:28 ?635次閱讀
    <b class='flag-5'>谷歌</b>Gemini 1.5深夜爆炸上線,史詩級多模態(tài)硬剛GPT-5!<b class='flag-5'>最強</b>MoE首破100萬極限上下文紀(jì)錄

    ChatGPT重磅更新 OpenAI發(fā)布GPT-4 Turbo模型價格大降2/3

    ChatGPT重磅更新 OpenAI發(fā)布GPT-4 Turbo模型價格大降2/3 目前OpenAI算是
    的頭像 發(fā)表于 11-07 18:20 ?2556次閱讀
    ChatGPT重磅更新 <b class='flag-5'>OpenAI</b><b class='flag-5'>發(fā)布</b>GPT-<b class='flag-5'>4</b> Turbo<b class='flag-5'>模型</b>價格大降2/3