0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

谷歌開(kāi)發(fā)出一個(gè)新的語(yǔ)言模型,包含了超過(guò)1.6萬(wàn)億個(gè)參數(shù)

ss ? 來(lái)源:陳述根本 ? 作者:陳根 ? 2021-01-19 15:29 ? 次閱讀

開(kāi)發(fā)人工智能的語(yǔ)言模型,一直是人工智能的重要細(xì)分領(lǐng)域。人工智能語(yǔ)言模型應(yīng)用包括搜索引擎、文字生成、個(gè)性化的對(duì)話工具以及軟件生成等。

2020年5月,OpenAI的一組研究人員發(fā)布了具有里程碑意義的AI模型GPT-3。GPT-3就是在570 GB的文本數(shù)據(jù)上訓(xùn)練的語(yǔ)言模型,因此,就訓(xùn)練數(shù)據(jù)和生成能力而言,GPT-3截至2020年都是最龐大的公開(kāi)發(fā)布的語(yǔ)言模型。

此外,OpenAI的GPT-3一反之前死守基礎(chǔ)研究的思路,將 GPT-3 做成了一個(gè)服務(wù),提供可以調(diào)用的 OpenAI API,并且向開(kāi)放了少量體驗(yàn)資格,使得拿到體驗(yàn)資格的業(yè)界人士或?qū)W者等,開(kāi)發(fā)出了一眾驚人的演示。

包括答題、翻譯、寫(xiě)文章,甚至是數(shù)學(xué)計(jì)算和編寫(xiě)代碼。而由GPT-3所寫(xiě)的文章幾乎達(dá)到了以假亂真的地步,在 OpenAI 的測(cè)試中,人類(lèi)評(píng)估人員也很難判斷出這篇新聞的真假,檢測(cè)準(zhǔn)確率僅為 12%。

但現(xiàn)在,谷歌研究人員開(kāi)發(fā)出一個(gè)新的語(yǔ)言模型,它包含了超過(guò) 1.6 萬(wàn)億個(gè)參數(shù),遠(yuǎn)超 Open AI 開(kāi)發(fā)的 GTP-3 的規(guī)模(1750 億個(gè)參數(shù)),成為迄今為止最大規(guī)模的人工智能語(yǔ)言模型,比之前谷歌開(kāi)發(fā)過(guò)最大的語(yǔ)言模型 T5-XXL 的效率提高了 4 倍。

該語(yǔ)言模型使用 Switch Transformer 方法進(jìn)行大規(guī)模訓(xùn)練,這是一種“稀疏激活”技術(shù),它只使用模型權(quán)重的子集或在模型中轉(zhuǎn)換輸入數(shù)據(jù)的參數(shù),以有效降低計(jì)算密集度。

盡管在部分實(shí)驗(yàn)中,該模型相比規(guī)模更小的模型得到了較低分?jǐn)?shù)。但在相同的計(jì)算資源下,預(yù)訓(xùn)練速度提高了7倍。這些改進(jìn)擴(kuò)展到多語(yǔ)言設(shè)置中,我們?cè)谒?01種語(yǔ)言中測(cè)量mT5基本版本的增益。最后,我們通過(guò)在“巨大的干凈的爬蟲(chóng)語(yǔ)料庫(kù)”上預(yù)先訓(xùn)練多達(dá)萬(wàn)億個(gè)參數(shù)的模型,提高了語(yǔ)言模型的當(dāng)前規(guī)模,并實(shí)現(xiàn)了比T5-XXL模型4倍的加速。

研究人員認(rèn)為,稀疏性可以在未來(lái)賦予該模型在一系列不同媒體下多模態(tài)的優(yōu)勢(shì)。這也為人工智能語(yǔ)言模型的深入研究提供了更多方向的參考。

責(zé)任編輯:xj

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    28877

    瀏覽量

    266225
  • 人工智能
    +關(guān)注

    關(guān)注

    1787

    文章

    46061

    瀏覽量

    235015
  • 語(yǔ)言模型
    +關(guān)注

    關(guān)注

    0

    文章

    487

    瀏覽量

    10201
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    TINA-TI里的運(yùn)放SPICE模型包含有運(yùn)放的差分、共模輸入電容參數(shù)嗎?

    (2.2pF+6.5pF+13pF)?我不知道這個(gè)內(nèi)置的SPICE模型是否包含了差分輸入電容6.5pF和共模輸入電容13pF這兩個(gè)參數(shù)
    發(fā)表于 08-12 08:13

    谷歌發(fā)布新型大語(yǔ)言模型Gemma 2

    在人工智能領(lǐng)域,大語(yǔ)言模型直是研究的熱點(diǎn)。近日,全球科技巨頭谷歌宣布,面向全球研究人員和開(kāi)發(fā)人員,正式發(fā)布了其最新研發(fā)的大
    的頭像 發(fā)表于 06-29 09:48 ?326次閱讀

    谷歌不行?股價(jià)卻新高!Meta逆天?蒸發(fā)1.6萬(wàn)億…微軟:都是弟弟

    夜蒸發(fā)了1.6萬(wàn)億。只有微軟繼續(xù)超預(yù)期,看著另外兩位不靠譜的對(duì)手微微笑,拿回全球市值第的交椅。谷歌
    的頭像 發(fā)表于 05-09 08:04 ?136次閱讀
    <b class='flag-5'>谷歌</b>不行?股價(jià)卻新高!Meta逆天?蒸發(fā)<b class='flag-5'>1.6</b><b class='flag-5'>萬(wàn)億</b>…微軟:都是弟弟

    【大語(yǔ)言模型:原理與工程實(shí)踐】大語(yǔ)言模型的應(yīng)用

    類(lèi)任務(wù)上表現(xiàn)出色,甚至在零樣本條件下也能取得良好效果。另類(lèi)則需要逐步推理才能完成的任務(wù),類(lèi)似于人類(lèi)的系統(tǒng)2,如數(shù)字推理等。然而,隨著參數(shù)量的增加,大語(yǔ)言模型在這類(lèi)任務(wù)上并未出現(xiàn)質(zhì)的飛
    發(fā)表于 05-07 17:21

    【大語(yǔ)言模型:原理與工程實(shí)踐】大語(yǔ)言模型的基礎(chǔ)技術(shù)

    特定任務(wù)對(duì)模型進(jìn)行微調(diào)。這種方法的成功不僅是自然語(yǔ)言處理發(fā)展的個(gè)轉(zhuǎn)折點(diǎn),還為許多現(xiàn)實(shí)世界的應(yīng)用場(chǎng)帶來(lái)了前所未有的性能提升。從廣為人知的GPT到BERT,預(yù)訓(xùn)練的
    發(fā)表于 05-05 12:17

    名單公布!【書(shū)籍評(píng)測(cè)活動(dòng)NO.30】大規(guī)模語(yǔ)言模型:從理論到實(shí)踐

    ,在大模型實(shí)踐和理論研究的過(guò)程中,歷時(shí)8個(gè)月完成 《大規(guī)模語(yǔ)言模型:從理論到實(shí)踐》 書(shū)的撰寫(xiě)。希望這本書(shū)能夠幫助讀者快速入門(mén)大
    發(fā)表于 03-11 15:16

    谷歌模型框架是什么軟件?谷歌模型框架怎么用?

    谷歌模型框架通常指的是谷歌開(kāi)發(fā)的用于機(jī)器學(xué)習(xí)和人工智能的軟件框架,其中最著名的是TensorFlow。TensorFlow是
    的頭像 發(fā)表于 03-01 16:25 ?648次閱讀

    谷歌模型軟件有哪些功能

    谷歌模型軟件通常指的是谷歌推出的系列人工智能模型和軟件工具,其中最具代表性的是Google Gemini。Google Gemini是
    的頭像 發(fā)表于 03-01 16:20 ?460次閱讀

    谷歌模型框架是什么?有哪些功能和應(yīng)用?

    谷歌模型框架(Google Model Framework)并不是個(gè)特定的框架,而是指谷歌開(kāi)發(fā)
    的頭像 發(fā)表于 02-29 18:11 ?1228次閱讀

    只修改個(gè)關(guān)鍵參數(shù),就會(huì)毀了整個(gè)百億參數(shù)模型?

    2022 年開(kāi)始,我們發(fā)現(xiàn) Multilingual BERT 是個(gè)經(jīng)過(guò)大規(guī)???b class='flag-5'>語(yǔ)言訓(xùn)練驗(yàn)證的模型實(shí)例,其展示出了優(yōu)異的跨語(yǔ)言遷移能力。具
    的頭像 發(fā)表于 02-20 14:51 ?545次閱讀
    只修改<b class='flag-5'>一</b><b class='flag-5'>個(gè)</b>關(guān)鍵<b class='flag-5'>參數(shù)</b>,就會(huì)毀了整個(gè)百億<b class='flag-5'>參數(shù)</b>大<b class='flag-5'>模型</b>?

    Stability AI推出迄今為止更小、更高效的1.6B語(yǔ)言模型

    Stability AI 宣布推出迄今為止最強(qiáng)大的小語(yǔ)言模型 Stable LM 2 1.6B。
    的頭像 發(fā)表于 01-23 10:11 ?632次閱讀
    Stability AI推出迄今為止更小、更高效的<b class='flag-5'>1.6</b>B<b class='flag-5'>語(yǔ)言</b><b class='flag-5'>模型</b>

    【飛騰派4G版免費(fèi)試用】仙女姐姐的嵌入式實(shí)驗(yàn)室之五~LLaMA.cpp及3B“小模型”O(jiān)penBuddy-StableLM-3B

    預(yù)訓(xùn)練語(yǔ)言模型。該模型最大的特點(diǎn)就是基于以較小的參數(shù)規(guī)模取得了優(yōu)秀的性能,根據(jù)官網(wǎng)提供的信息,LLaMA的模型
    發(fā)表于 12-22 10:18

    微軟宣布推出個(gè)27億參數(shù)語(yǔ)言模型Phi-2

    Phi-2 是微軟 “小語(yǔ)言模型(SLM)” 系列中的最新版本。第一個(gè)版本是擁有 13 億參數(shù)的 Phi-1,針對(duì)基本的 Python 編碼任務(wù)進(jìn)行了微調(diào)。
    發(fā)表于 12-15 09:46 ?212次閱讀
    微軟宣布推出<b class='flag-5'>一</b><b class='flag-5'>個(gè)</b>27億<b class='flag-5'>參數(shù)</b>的<b class='flag-5'>語(yǔ)言</b><b class='flag-5'>模型</b>Phi-2

    個(gè)系統(tǒng)中,包含了dsp和pld,請(qǐng)問(wèn)布線時(shí)要注意哪些問(wèn)題呢?

    個(gè)系統(tǒng)中,包含了dsp和pld,請(qǐng)問(wèn)布線時(shí)要注意哪些問(wèn)題呢? 在設(shè)計(jì)和布線系統(tǒng)中同時(shí)包含DSP(數(shù)字信號(hào)處理器)和PLD(可編程邏輯器件)時(shí),有
    的頭像 發(fā)表于 11-24 14:44 ?396次閱讀

    參數(shù)少近半,性能逼近谷歌Minerva,又一個(gè)數(shù)學(xué)大模型開(kāi)源了

    模型家族來(lái)了個(gè)專(zhuān)門(mén)解決數(shù)學(xué)問(wèn)題的「新成員」——Llemma。 如今,在各種文本混合數(shù)據(jù)上訓(xùn)練出來(lái)的語(yǔ)言模型會(huì)顯示出非常通用的
    的頭像 發(fā)表于 10-23 09:40 ?262次閱讀
    <b class='flag-5'>參數(shù)</b>少近<b class='flag-5'>一</b>半,性能逼近<b class='flag-5'>谷歌</b>Minerva,又<b class='flag-5'>一個(gè)</b>數(shù)學(xué)大<b class='flag-5'>模型</b>開(kāi)源了