0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Eleuther AI:已經(jīng)開(kāi)源了復(fù)現(xiàn)版GPT-3的模型參數(shù)

深度學(xué)習(xí)自然語(yǔ)言處理 ? 來(lái)源:夕小瑤的賣萌屋 ? 作者:小戲 ? 2021-03-31 17:46 ? 次閱讀

GPT3終于開(kāi)源!不過(guò),不是官方開(kāi)的(別打我

Eleuther AI推出的名為GPT-Neo的開(kāi)源項(xiàng)目,于晨4點(diǎn)于twitter正式宣布:已經(jīng)開(kāi)源了復(fù)現(xiàn)版GPT-3的模型參數(shù)(1.3B和2.7B級(jí)別),并將其更新在Colab notebook之上。需要指出的是這次開(kāi)源的模型里較大的那個(gè)版本也只是到了GPT-3商用版里最小模型的參數(shù)量,不過(guò)Eleuther AI表示未來(lái)會(huì)進(jìn)一步開(kāi)源10B版本和原始大小版本的GPT3模型參數(shù)。

消息發(fā)布后,立刻被各個(gè)大v轉(zhuǎn)發(fā),10小時(shí)內(nèi)就已迅速收獲1.5K的點(diǎn)贊量,相應(yīng)的github鏈接也已收獲接近2k star。

▲Twitter原文

但關(guān)于復(fù)現(xiàn)模型的性能,目前只說(shuō)“實(shí)驗(yàn)表現(xiàn)與原版GPT-3相當(dāng)”(they performed on par)。具體實(shí)驗(yàn)結(jié)果將于明天公布。

風(fēng)靡一時(shí)的擁有1750億超大參數(shù)量,一出道便被視作NLP領(lǐng)域最強(qiáng)AI模型的GPT-3,得益于其龐大的參數(shù)量,使得GPT-3擁有不用接受特定訓(xùn)練與微調(diào),就能在不同NLP領(lǐng)域達(dá)到領(lǐng)先水平的強(qiáng)大能力。去年七月,GPT-3被Open-AI以商業(yè)API的形式向公眾開(kāi)放,并被人們探索出了形形色色的應(yīng)用,從基于問(wèn)題的搜索,到文本樣式轉(zhuǎn)換,從UI界面設(shè)計(jì),再到自動(dòng)生成SQL代碼,GPT-3以其卓越的性能展現(xiàn)了其廣闊的應(yīng)用場(chǎng)景,深度學(xué)習(xí)之父Hinton甚至這樣評(píng)價(jià)道:

如果以GPT-3的出色性能推算未來(lái)、生命、宇宙和萬(wàn)物的答案也不過(guò)是4.398萬(wàn)億個(gè)參數(shù)

但是,由于目前GPT-3的使用模式仍然是付費(fèi)的商業(yè)API,因此并不是所有NLP的研究者都能使用GPT-3完成自己領(lǐng)域的任務(wù)與工作。而由Connor Leahy,Leo Gao和Sid Black三人聯(lián)合創(chuàng)立的Eleuther AI的團(tuán)隊(duì),于去年11月宣布推出GPT-Neo的開(kāi)源項(xiàng)目,該項(xiàng)目基于GPT系列的設(shè)計(jì)原理,旨在復(fù)現(xiàn)GPT系列的各種項(xiàng)目,在該項(xiàng)目發(fā)布之初,其團(tuán)隊(duì)成員已經(jīng)預(yù)測(cè)可以完成GPT-3級(jí)別大小的語(yǔ)言模型。

毫無(wú)疑問(wèn),GPT-3的開(kāi)源將會(huì)催生出一大批NLP技術(shù)的嶄新應(yīng)用,也會(huì)以更為低廉的成本釋放人們對(duì)NLP未來(lái)的想象力。

原文標(biāo)題:【GPT-3】千呼萬(wàn)喚始出來(lái)——GPT-3終于開(kāi)源!

文章出處:【微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

責(zé)任編輯:haq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    29013

    瀏覽量

    266449
  • 開(kāi)源
    +關(guān)注

    關(guān)注

    3

    文章

    3153

    瀏覽量

    42098
  • nlp
    nlp
    +關(guān)注

    關(guān)注

    1

    文章

    481

    瀏覽量

    21940

原文標(biāo)題:【GPT-3】千呼萬(wàn)喚始出來(lái)——GPT-3終于開(kāi)源!

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    英偉達(dá)預(yù)測(cè)機(jī)器人領(lǐng)域或迎“GPT-3時(shí)刻”

    未來(lái)2-3年內(nèi),機(jī)器人基礎(chǔ)模型的研究將迎來(lái)重大突破,這一時(shí)刻被形象地比喻為機(jī)器人領(lǐng)域的“GPT-3時(shí)刻”。
    的頭像 發(fā)表于 09-20 17:05 ?661次閱讀

    Jim Fan展望:機(jī)器人領(lǐng)域即將迎來(lái)GPT-3式突破

    英偉達(dá)科學(xué)家9月19日,科技媒體The Decoder發(fā)布一則引人關(guān)注的報(bào)道,英偉達(dá)高級(jí)科學(xué)家Jim Fan在近期預(yù)測(cè),機(jī)器人技術(shù)將在未來(lái)兩到三年內(nèi)迎來(lái)類似GPT-3在語(yǔ)言處理領(lǐng)域的革命性突破,他稱之為機(jī)器人領(lǐng)域的“GPT-3
    的頭像 發(fā)表于 09-19 15:13 ?338次閱讀

    通義千問(wèn)推出1100億參數(shù)開(kāi)源模型

    通義千問(wèn)近日震撼發(fā)布1100億參數(shù)開(kāi)源模型Qwen1.5-110B,這一舉措標(biāo)志著通義千問(wèn)在AI領(lǐng)域邁出了重大步伐。該模型成為通義千問(wèn)全系
    的頭像 發(fā)表于 05-06 10:49 ?480次閱讀

    微軟發(fā)布phi-3AI模型,性能超越GPT-3.5

    微軟稱,帶有38億參數(shù)的phi-3-mini經(jīng)過(guò)3.3萬(wàn)億token的強(qiáng)化學(xué)習(xí),其基礎(chǔ)表現(xiàn)已經(jīng)超過(guò)Mixtral 8x7B及GPT-3.5;此外,該
    的頭像 發(fā)表于 04-23 14:32 ?450次閱讀

    Meta推出最強(qiáng)開(kāi)源模型Llama 3 要挑戰(zhàn)GPT

    Meta推出最強(qiáng)開(kāi)源模型Llama 3 要挑戰(zhàn)GPT Facebook母公司Meta Platforms(META.US)推出了開(kāi)源
    的頭像 發(fā)表于 04-19 17:00 ?724次閱讀

    為什么GPU適用于AIAI服務(wù)器產(chǎn)業(yè)鏈格局分析

    GPT模型對(duì)比BERT模型、T5模型參數(shù)量有明顯提升。GPT-3是目前最大的知名語(yǔ)言
    發(fā)表于 04-09 10:38 ?713次閱讀
    為什么GPU適用于<b class='flag-5'>AI</b>?<b class='flag-5'>AI</b>服務(wù)器產(chǎn)業(yè)鏈格局分析

    全球最強(qiáng)大模型易主,GPT-4被超越

    近日,AI領(lǐng)域的領(lǐng)軍企業(yè)Anthropic宣布推出全新的Claude 3系列模型,其中包括最強(qiáng)版Claude 3 Opus。據(jù)該公司稱,Claude
    的頭像 發(fā)表于 03-05 09:58 ?536次閱讀

    Anthropic推出Claude 3系列模型,全面超越GPT-4,樹(shù)立AI新標(biāo)桿

    近日,AI領(lǐng)域的領(lǐng)軍企業(yè)Anthropic震撼發(fā)布全新的Claude 3系列模型,該系列模型在多模態(tài)和語(yǔ)言能力等關(guān)鍵領(lǐng)域展現(xiàn)出卓越性能,成
    的頭像 發(fā)表于 03-05 09:49 ?561次閱讀

    高分工作!Uni3D:3D基礎(chǔ)大模型,刷新多個(gè)SOTA!

    我們主要探索3D視覺(jué)中scale up模型參數(shù)量和統(tǒng)一模型架構(gòu)的可能性。在NLP / 2D vision領(lǐng)域,scale up大
    的頭像 發(fā)表于 01-30 15:56 ?658次閱讀
    高分工作!Uni<b class='flag-5'>3</b>D:<b class='flag-5'>3</b>D基礎(chǔ)大<b class='flag-5'>模型</b>,刷新多個(gè)SOTA!

    Rambus HBM3內(nèi)存控制器IP速率達(dá)到9.6 Gbps

    在人工智能大模型浪潮的推動(dòng)下,AI訓(xùn)練數(shù)據(jù)集正極速擴(kuò)增。以ChatGPT為例,去年11月發(fā)布的GPT-3,使用1750億個(gè)參數(shù)構(gòu)建,今年3
    的頭像 發(fā)表于 01-23 11:19 ?787次閱讀
    Rambus HBM<b class='flag-5'>3</b>內(nèi)存控制器IP速率達(dá)到9.6 Gbps

    【飛騰派4G版免費(fèi)試用】仙女姐姐的嵌入式實(shí)驗(yàn)室之五~LLaMA.cpp及3B“小模型”O(jiān)penBuddy-StableLM-3B

    和1750億參數(shù)GPT-3都是非常由有競(jìng)爭(zhēng)力的 MetaAI研究人員認(rèn)為,當(dāng)前大模型的高成本阻礙學(xué)術(shù)研究,因此,開(kāi)發(fā)出這個(gè)更小更強(qiáng)的模型
    發(fā)表于 12-22 10:18

    大語(yǔ)言模型簡(jiǎn)介:基于大語(yǔ)言模型模型全家桶Amazon Bedrock

    本文基于亞馬遜云科技推出的大語(yǔ)言模型與生成式AI的全家桶:Bedrock對(duì)大語(yǔ)言模型進(jìn)行介紹。大語(yǔ)言模型指的是具有數(shù)十億參數(shù)(B+)的預(yù)訓(xùn)練
    的頭像 發(fā)表于 12-04 15:51 ?657次閱讀

    LLM真的能推理和規(guī)劃嗎?

    在研究人員選擇的模型中,GPT-3 davinci(非指令微調(diào))、GPT-3 textdavinci-001(指令微調(diào))和GPT-3 textdavinci-003(InstructG
    發(fā)表于 11-30 09:45 ?552次閱讀
    LLM真的能推理和規(guī)劃嗎?

    500篇論文!最全代碼大模型綜述

    經(jīng)典 Transformer 使用不可學(xué)習(xí)的余弦編碼,加在模型底層的詞向量輸入上。GPT、BERT將其改為可學(xué)習(xí)的絕對(duì)位置編碼,并沿用到了RoBERTa、BART、GPT-2、GPT-3
    的頭像 發(fā)表于 11-17 17:31 ?1091次閱讀

    AI圈巨震!微軟論文聲稱ChatGPT是20B(200億)參數(shù)量的模型?

    在top-1中,CODEFUSION的性能與自回歸模型相媲美,甚至在某些情況下表現(xiàn)更出色,尤其是在Python任務(wù)中,只有GPT-3(175B)的性能稍微優(yōu)于CODEFUSION(75M)。然而,在top-3和top-5方面,C
    的頭像 發(fā)表于 11-01 16:23 ?730次閱讀
    <b class='flag-5'>AI</b>圈巨震!微軟論文聲稱ChatGPT是20B(200億)<b class='flag-5'>參數(shù)</b>量的<b class='flag-5'>模型</b>?