0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

史上最大AI模型GPT-3強(qiáng)勢(shì)霸榜Github

人工智能與大數(shù)據(jù)技術(shù) ? 來(lái)源:開(kāi)源最前線 ? 作者:開(kāi)源最前線 ? 2021-01-06 17:06 ? 次閱讀

最近,GPT-3火了!相信你已經(jīng)在網(wǎng)上看到各種有關(guān)GPT-3的演示。這個(gè)由OpenAI創(chuàng)建的大型機(jī)器學(xué)習(xí)模型,它不僅可以自己寫(xiě)論文,還會(huì)寫(xiě)詩(shī)歌,就連你寫(xiě)的代碼都能幫你寫(xiě)了。 下面還是先讓你看看GPT-3的威力吧,首先來(lái)看看GPT3在問(wèn)答任務(wù)上的表現(xiàn):

4139cfac-4ff9-11eb-8b86-12bb97331649.png

無(wú)論你的問(wèn)題是天馬行空的腦筋急轉(zhuǎn)彎,還是有邏輯性極強(qiáng)的數(shù)學(xué)問(wèn)題,它都能對(duì)答如流。 開(kāi)發(fā)者Sharif Shameem用GPT-3做了一個(gè)生成器,你只要輸入你所需的布局,它就能為你生成JSX代碼。如下視頻所示:

還有人在 Google 表格里開(kāi)發(fā)了一個(gè)新的 GPT3 函數(shù),除了簡(jiǎn)單的數(shù)學(xué)運(yùn)算之外,它還可以自動(dòng)查找美國(guó)各州的人口以及創(chuàng)建年份:

41764a68-4ff9-11eb-8b86-12bb97331649.png

除此之外,它還能查到Twitter賬號(hào):

41b126d8-4ff9-11eb-8b86-12bb97331649.png

遺憾的是,如果你想試用GPT-3,你得先拿到體驗(yàn)資格才行,但是此模型創(chuàng)建的應(yīng)用程序似乎有無(wú)限可能,通過(guò)它你可以使用純英語(yǔ)查詢(xún)SQL數(shù)據(jù)庫(kù),自動(dòng)注釋代碼,自動(dòng)生成代碼,編寫(xiě)熱門(mén)文章標(biāo)題,甚至幫助猿妹我寫(xiě)出一篇爆文。 GPT-3是什么? GPT-3是一種神經(jīng)網(wǎng)絡(luò)驅(qū)動(dòng)的語(yǔ)言模型。與大多數(shù)語(yǔ)言模型一樣,GPT-3在未標(biāo)記的文本數(shù)據(jù)集上進(jìn)行了大量的訓(xùn)練(訓(xùn)練數(shù)據(jù)包括Common Crawl和Wikipedia),從文本中隨機(jī)刪除單詞或短語(yǔ),并且模型必須學(xué)會(huì)僅使用周?chē)膯卧~作為上下文來(lái)填充單詞或短語(yǔ)。這是一個(gè)簡(jiǎn)單的培訓(xùn)任務(wù),可以產(chǎn)生功能強(qiáng)大且可推廣的模型。 GPT-3模型架構(gòu)本身就是一個(gè)基于單向transformer語(yǔ)言模型。這種架構(gòu)在2-3年前開(kāi)始流行,流行的NLP模型BERT和GPT-3的前身GPT-2都是基于transformer構(gòu)建。從架構(gòu)的角度來(lái)看,GPT-3實(shí)際上并不是很新穎!

42265afc-4ff9-11eb-8b86-12bb97331649.jpg

它之所以會(huì)這么火,是因?yàn)镚PT-3的模型尺寸增大到了1750億,并且使用45TB數(shù)據(jù)進(jìn)行訓(xùn)練,是有史以來(lái)創(chuàng)建的最大語(yǔ)言模型。源于它的參數(shù)模型巨大,因此可以完成許多其他模型無(wú)法完成的事情,就像前面所說(shuō)的,你可以讓它成為一名翻譯家、作家、詩(shī)人、程序員等。 如果你對(duì)GPT-3的模型參數(shù)1750億感到有些抽象,那么,我舉個(gè)例子,你應(yīng)該就懂了:

BERT模型有3億參數(shù)

GPT-3模型的前身GPT-2有15億個(gè)參數(shù)

英偉達(dá)的Megatron-BERT有80億參數(shù)

微軟Turing NLP,有170億參數(shù)

就連排名第二的微軟Turing NLP的數(shù)據(jù)參數(shù)和GPT-3都不是一個(gè)量級(jí)的。

值得一提的是,這次的GPT-3論文作者足足有31位,論文體量更是高達(dá)72頁(yè),網(wǎng)友都驚呼,現(xiàn)在PTM的工作是要開(kāi)始pk論文頁(yè)數(shù)了嗎?

和往常一樣,GPT-3立即放出了GitHub項(xiàng)目頁(yè)面,你可以在上面找到各種各樣有趣的demo,最后附上Github地址:https://github.com/openai/gpt-3。推薦↓↓↓

原文標(biāo)題:敲代碼、作詩(shī)、寫(xiě)論文無(wú)所不能!史上最大AI模型GPT-3強(qiáng)勢(shì)霸榜Github

文章出處:【微信公眾號(hào):人工智能與大數(shù)據(jù)技術(shù)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

責(zé)任編輯:haq

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    29013

    瀏覽量

    266449
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8308

    瀏覽量

    131903

原文標(biāo)題:敲代碼、作詩(shī)、寫(xiě)論文無(wú)所不能!史上最大AI模型GPT-3強(qiáng)勢(shì)霸榜Github

文章出處:【微信號(hào):TheBigData1024,微信公眾號(hào):人工智能與大數(shù)據(jù)技術(shù)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    英偉達(dá)預(yù)測(cè)機(jī)器人領(lǐng)域或迎“GPT-3時(shí)刻”

    未來(lái)2-3年內(nèi),機(jī)器人基礎(chǔ)模型的研究將迎來(lái)重大突破,這一時(shí)刻被形象地比喻為機(jī)器人領(lǐng)域的“GPT-3時(shí)刻”。
    的頭像 發(fā)表于 09-20 17:05 ?661次閱讀

    Jim Fan展望:機(jī)器人領(lǐng)域即將迎來(lái)GPT-3式突破

    英偉達(dá)科學(xué)家9月19日,科技媒體The Decoder發(fā)布了一則引人關(guān)注的報(bào)道,英偉達(dá)高級(jí)科學(xué)家Jim Fan在近期預(yù)測(cè),機(jī)器人技術(shù)將在未來(lái)兩到三年內(nèi)迎來(lái)類(lèi)似GPT-3在語(yǔ)言處理領(lǐng)域的革命性突破,他稱(chēng)之為機(jī)器人領(lǐng)域的“GPT-3時(shí)刻”。
    的頭像 發(fā)表于 09-19 15:13 ?338次閱讀

    GitHub推出GitHub Models服務(wù),賦能開(kāi)發(fā)者智能選擇AI模型

    8月2日,全球領(lǐng)先的代碼托管平臺(tái)GitHub宣布了一項(xiàng)重大創(chuàng)新——GitHub Models服務(wù)的正式推出。該服務(wù)被定位為AI時(shí)代的工程師助手,旨在幫助全球超過(guò)1億的GitHub用戶(hù)輕
    的頭像 發(fā)表于 08-02 15:39 ?399次閱讀

    凱迪仕全渠道TOP1 ,全域曝光100億!

    618年中狂歡盛典,已正式落下帷幕。智能鎖行業(yè)領(lǐng)頭羊凱迪仕,憑借過(guò)硬的科技產(chǎn)品力和品牌勢(shì)能,在全域流量加持以及傳奇大師K70新品強(qiáng)勢(shì)曝光之下,天貓、京東、抖音各平臺(tái),穩(wěn)居各類(lèi)型榜單榜首,繼續(xù)以
    的頭像 發(fā)表于 06-21 20:10 ?208次閱讀
    凱迪仕<b class='flag-5'>霸</b><b class='flag-5'>榜</b>全渠道TOP1 ,全域曝光100億!

    為什么GPU適用于AIAI服務(wù)器產(chǎn)業(yè)鏈格局分析

    GPT模型對(duì)比BERT模型、T5模型的參數(shù)量有明顯提升。GPT-3是目前最大的知名語(yǔ)言
    發(fā)表于 04-09 10:38 ?713次閱讀
    為什么GPU適用于<b class='flag-5'>AI</b>?<b class='flag-5'>AI</b>服務(wù)器產(chǎn)業(yè)鏈格局分析

    AI新工具DUSt3R走紅GitHub,兩秒完成3D重建驚艷網(wǎng)友

    近日,一款名為DUSt3R的AI新工具在微軟旗下的GitHub平臺(tái)上引發(fā)了廣泛關(guān)注。這款神奇的工具僅需兩張圖片和兩秒鐘的時(shí)間,便能完成精確的3D重建,且無(wú)需額外測(cè)量任何數(shù)據(jù)。上線不久,
    的頭像 發(fā)表于 03-08 14:02 ?944次閱讀

    新火種AI|秒殺GPT-4,狙殺GPT-5,橫空出世的Claude 3振奮人心!

    2024年第一季度才剛過(guò)半,AI領(lǐng)域就大動(dòng)作不斷,大家卯著勁的出新品,可謂卷出天際。 ? 3月4日,Anthropic發(fā)布了最新的Claude 3系列模型,用Anthropic的話說(shuō),
    的頭像 發(fā)表于 03-06 22:22 ?512次閱讀
    新火種<b class='flag-5'>AI</b>|秒殺<b class='flag-5'>GPT</b>-4,狙殺<b class='flag-5'>GPT</b>-5,橫空出世的Claude <b class='flag-5'>3</b>振奮人心!

    全球最強(qiáng)大模型易主,GPT-4被超越

    近日,AI領(lǐng)域的領(lǐng)軍企業(yè)Anthropic宣布推出全新的Claude 3系列模型,其中包括最強(qiáng)版Claude 3 Opus。據(jù)該公司稱(chēng),Claude
    的頭像 發(fā)表于 03-05 09:58 ?536次閱讀

    Anthropic推出Claude 3系列模型,全面超越GPT-4,樹(shù)立AI新標(biāo)桿

    近日,AI領(lǐng)域的領(lǐng)軍企業(yè)Anthropic震撼發(fā)布了全新的Claude 3系列模型,該系列模型在多模態(tài)和語(yǔ)言能力等關(guān)鍵領(lǐng)域展現(xiàn)出卓越性能,成功擊敗了此前被廣泛認(rèn)為是全球最強(qiáng)
    的頭像 發(fā)表于 03-05 09:49 ?561次閱讀

    360集團(tuán)和哪吒汽車(chē)合作 將共同發(fā)布NETA GPT模型

    360集團(tuán)和哪吒汽車(chē)合作 將共同發(fā)布NETA GPT模型 3月1日,360集團(tuán)與哪吒汽車(chē)簽署戰(zhàn)略合作協(xié)議,雙方計(jì)劃共同發(fā)布大模型產(chǎn)品NETA GP
    的頭像 發(fā)表于 03-02 15:51 ?855次閱讀

    Rambus HBM3內(nèi)存控制器IP速率達(dá)到9.6 Gbps

    在人工智能大模型浪潮的推動(dòng)下,AI訓(xùn)練數(shù)據(jù)集正極速擴(kuò)增。以ChatGPT為例,去年11月發(fā)布的GPT-3,使用1750億個(gè)參數(shù)構(gòu)建,今年3月發(fā)布的G
    的頭像 發(fā)表于 01-23 11:19 ?787次閱讀
    Rambus HBM<b class='flag-5'>3</b>內(nèi)存控制器IP速率達(dá)到9.6 Gbps

    【飛騰派4G版免費(fèi)試用】仙女姐姐的嵌入式實(shí)驗(yàn)室之五~LLaMA.cpp及3B“小模型”O(jiān)penBuddy-StableLM-3B

    和1750億參數(shù)的GPT-3都是非常由有競(jìng)爭(zhēng)力的 MetaAI研究人員認(rèn)為,當(dāng)前大模型的高成本阻礙了學(xué)術(shù)研究,因此,開(kāi)發(fā)出這個(gè)更小更強(qiáng)的模型將有利于學(xué)術(shù)研究的發(fā)展。使用較少參數(shù)的模型,
    發(fā)表于 12-22 10:18

    大語(yǔ)言模型簡(jiǎn)介:基于大語(yǔ)言模型模型全家桶Amazon Bedrock

    本文基于亞馬遜云科技推出的大語(yǔ)言模型與生成式AI的全家桶:Bedrock對(duì)大語(yǔ)言模型進(jìn)行介紹。大語(yǔ)言模型指的是具有數(shù)十億參數(shù)(B+)的預(yù)訓(xùn)練語(yǔ)言模型
    的頭像 發(fā)表于 12-04 15:51 ?657次閱讀

    LLM真的能推理和規(guī)劃嗎?

    在研究人員選擇的模型中,GPT-3 davinci(非指令微調(diào))、GPT-3 textdavinci-001(指令微調(diào))和GPT-3 textdavinci-003(InstructG
    發(fā)表于 11-30 09:45 ?552次閱讀
    LLM真的能推理和規(guī)劃嗎?

    500篇論文!最全代碼大模型綜述

    經(jīng)典 Transformer 使用不可學(xué)習(xí)的余弦編碼,加在模型底層的詞向量輸入上。GPT、BERT將其改為可學(xué)習(xí)的絕對(duì)位置編碼,并沿用到了RoBERTa、BART、GPT-2、GPT-3
    的頭像 發(fā)表于 11-17 17:31 ?1091次閱讀