0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

技術(shù)速遞 | 論文分享《Holistic Evaluation of Language Models》

華為DevCloud ? 來(lái)源:未知 ? 2023-05-11 20:16 ? 次閱讀
【摘要】 大模型(LLM)已經(jīng)成為了大多數(shù)語(yǔ)言相關(guān)的技術(shù)的基石,然而大模型的能力、限制、風(fēng)險(xiǎn)還沒有被大家完整地認(rèn)識(shí)。該文為大模型評(píng)估方向的綜述論文,由Percy Liang團(tuán)隊(duì)打造,將2022年四月份前的大模型進(jìn)行了統(tǒng)一的評(píng)估。其中,被評(píng)估的模型包括GPT-3,InstructGPT等。在經(jīng)過大量的實(shí)驗(yàn)之后,論文提出了一些可供參考的經(jīng)驗(yàn)總結(jié)。

1. 在所有被評(píng)估的模型中,InstructGPT davinci v2(175B)在準(zhǔn)確率,魯棒性,公平性三方面上表現(xiàn)最好。論文主要聚焦的是國(guó)外大公司的語(yǔ)言大模型,而國(guó)內(nèi)的知名大模型,如華為的Pangu系列以及百度的文心系列,論文并沒有給出相關(guān)的測(cè)評(píng)數(shù)據(jù)。下圖展示了各模型間在各種NLP任務(wù)中頭對(duì)頭勝率(Head-to-head win rate)的情況??梢钥吹?,出自O(shè)penAI的InstructGPT davinci v2在絕大多數(shù)任務(wù)中都可以擊敗其他模型。最近的大火的ChatGPT誕生于這篇論文之后,因此這篇論文沒有對(duì)ChatGPT的測(cè)評(píng),但ChatGPT是InstructGPT的升級(jí)版,相信ChatGPT可以取得同樣優(yōu)異的成績(jī)。在下圖中,準(zhǔn)確率的綜合第二名由微軟的TNLG獲得,第三名由初創(chuàng)公司Anthropic獲得。同時(shí)我們也可以看到,要想在準(zhǔn)確率額上獲得55%及以上的勝率,需要至少50B的大小,可見大模型是趨勢(shì)所向。8317f780-e42d-11ed-ab56-dac502259ad0.png

2. 由于硬件、架構(gòu)、部署模式的區(qū)別,不同模型的準(zhǔn)確率和效率之間沒有強(qiáng)相關(guān)性。而準(zhǔn)確率與魯棒性(Robustness)、公平性(Fairness)之間有一定的正相關(guān)關(guān)系(如下圖所示)。

8335fb7c-e42d-11ed-ab56-dac502259ad0.png

如今,大模型的參數(shù)規(guī)模都非常巨大。GPT-3具有1750億個(gè)參數(shù),部署這樣一個(gè)大模型,無(wú)論在成本上還是工程上都是極大的挑戰(zhàn)。同時(shí),由于需要開放API給用戶使用,OpenAI還需要考慮GPT-3的推理速度。文章的測(cè)試結(jié)果顯示,GPT-3的推理速度并沒有顯著地比參數(shù)更少地模型慢,可能是在硬件、架構(gòu)和部署模式上都有一定地優(yōu)勢(shì),足以彌補(bǔ)參數(shù)規(guī)模上的劣勢(shì)。

3. InstructGPT davinci v2(175B)在知識(shí)密集型的任務(wù)上取得了遠(yuǎn)超其他模型的成績(jī),在TruthfulQA數(shù)據(jù)集上獲得了62.0%的準(zhǔn)確率,遠(yuǎn)超第二名Anthropic-LM v4-s3 (52B) 36.2%的成績(jī)。(TruthfulQA是衡量語(yǔ)言模型在生成問題答案時(shí)是否真實(shí)的測(cè)評(píng)數(shù)據(jù)集。該數(shù)據(jù)集包括817個(gè)問題,涵蓋38個(gè)類別,包括健康,法律,金融和政治。作者精心設(shè)計(jì)了一些人會(huì)因?yàn)殄e(cuò)誤的先驗(yàn)知識(shí)或誤解而錯(cuò)誤回答的問題。)與此同時(shí),TNLG v2(530B)在部分知識(shí)密集型任務(wù)上也有優(yōu)異的表現(xiàn)。作者認(rèn)為模型的規(guī)模對(duì)學(xué)習(xí)真實(shí)的知識(shí)起到很大的貢獻(xiàn),這一點(diǎn)可以從兩個(gè)大模型的優(yōu)異表現(xiàn)中推測(cè)得到。

4. 在推理(Reasoning)任務(wù)上,Codex davinci v2在代碼生成和文本推理任務(wù)上表現(xiàn)都很優(yōu)異,甚至遠(yuǎn)超一些以文本為訓(xùn)練語(yǔ)料的模型。這一點(diǎn)在數(shù)學(xué)推理的數(shù)據(jù)上表現(xiàn)最明顯。在GSM8K數(shù)據(jù)集上,Codex davinci v2獲得了52.1%的正確率,第二名為InstructGPT davinci v2(175B)的35.0%,且沒有其他模型正確率超過16%。Codex davinci v2主要是用于解決代碼相關(guān)的問題,例如代碼生成、代碼總結(jié)、注釋生成、代碼修復(fù)等,它在文本推理任務(wù)上的優(yōu)秀表現(xiàn)可能是其在代碼數(shù)據(jù)上訓(xùn)練的結(jié)果,因?yàn)榇a是更具有邏輯關(guān)系的語(yǔ)言,在這樣的數(shù)據(jù)集上訓(xùn)練也許可以提升模型的推理能力。

5. 所有的大模型都對(duì)輸入(Prompt)的形式非常敏感。論文主要采用few-shot這種In-context learning的形式增強(qiáng)輸入(Prompt)。

835fb868-e42d-11ed-ab56-dac502259ad0.png

如上圖所示,在不同任務(wù)上,in-context examples的數(shù)量影響不同,在不同的模型上也是如此。由于有些任務(wù)比較簡(jiǎn)單,例如二分類的IMDB數(shù)據(jù)庫(kù),增加in-context examples并不會(huì)對(duì)結(jié)果有明顯的影響。在模型方面,由于window size的限制,過多的in-context examples可能導(dǎo)致剩余的window size不足以生成一個(gè)完成答案,因而對(duì)生成結(jié)果造成負(fù)面的影響。

點(diǎn)擊“閱讀原文”,了解更多!


原文標(biāo)題:技術(shù)速遞 | 論文分享《Holistic Evaluation of Language Models》

文章出處:【微信公眾號(hào):華為DevCloud】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 華為
    +關(guān)注

    關(guān)注

    215

    文章

    34246

    瀏覽量

    250930

原文標(biāo)題:技術(shù)速遞 | 論文分享《Holistic Evaluation of Language Models》

文章出處:【微信號(hào):華為DevCloud,微信公眾號(hào):華為DevCloud】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    LMK5C33414A Evaluation Module用戶指南

    電子發(fā)燒友網(wǎng)站提供《LMK5C33414A Evaluation Module用戶指南.pdf》資料免費(fèi)下載
    發(fā)表于 11-07 09:12 ?0次下載
    LMK5C33414A <b class='flag-5'>Evaluation</b> Module用戶指南

    新品速遞 | TOF反射型光電,突破檢測(cè)距離天花板

    新品速遞 | TOF反射型光電,突破檢測(cè)距離天花板
    的頭像 發(fā)表于 08-13 08:24 ?265次閱讀
    新品<b class='flag-5'>速遞</b> | TOF反射型光電,突破檢測(cè)距離天花板

    微軟GitHub推出Models服務(wù),賦能AI工程師

    微軟旗下的代碼托管巨頭 GitHub 近期宣布了一項(xiàng)重大更新——GitHub Models 服務(wù),旨在成為 AI 工程師的得力助手。該服務(wù)專為開發(fā)者設(shè)計(jì),旨在幫助他們輕松選擇并優(yōu)化最適合其應(yīng)用需求的 AI 模型。
    的頭像 發(fā)表于 08-05 14:16 ?414次閱讀

    GitHub推出GitHub Models服務(wù),賦能開發(fā)者智能選擇AI模型

    8月2日,全球領(lǐng)先的代碼托管平臺(tái)GitHub宣布了一項(xiàng)重大創(chuàng)新——GitHub Models服務(wù)的正式推出。該服務(wù)被定位為AI時(shí)代的工程師助手,旨在幫助全球超過1億的GitHub用戶輕松找到并應(yīng)用最適合其項(xiàng)目需求的AI模型。
    的頭像 發(fā)表于 08-02 15:39 ?494次閱讀

    大模型LLM與ChatGPT的技術(shù)原理

    在人工智能領(lǐng)域,大模型(Large Language Model, LLM)和ChatGPT等自然語(yǔ)言處理技術(shù)(Natural Language Processing, NLP)正逐步改變著人類
    的頭像 發(fā)表于 07-10 10:38 ?631次閱讀

    如何使用Wavetool Evaluation Software軟件在ADPD4100評(píng)估板上設(shè)置進(jìn)行多波長(zhǎng)監(jiān)測(cè)?

    目前已有設(shè)備:1.EVAL-ADPD4100-4101;2.EVAL-ADPDUCZ; 問題情況:成功連接到電腦Wavetool Evaluation Software軟件,但是通過配置dcfg
    發(fā)表于 05-24 07:23

    【大語(yǔ)言模型:原理與工程實(shí)踐】核心技術(shù)綜述

    我也不打算把網(wǎng)上相關(guān)的信息在總結(jié)一下,這樣的話,工作量很大。 我主要看了-大語(yǔ)言模型基礎(chǔ)技術(shù)這節(jié) 大語(yǔ)言模型(Large Language Models,LLMs)的核心技術(shù)涵蓋了從模
    發(fā)表于 05-05 10:56

    為什么TLE9879 Evaluation Kit提供的原理圖是空的?

    為什么TLE9879 Evaluation Kit提供的原理圖是空的,用AD19打開,啥都沒有,PCB版本為:TLE9879 EvalKit V1.2
    發(fā)表于 02-20 06:57

    新品速遞——WAYON維安推出8位MCU—WY8S8003系列

    新品速遞——WAYON維安推出8位MCU—WY8S8003系列
    的頭像 發(fā)表于 01-03 16:22 ?464次閱讀
    新品<b class='flag-5'>速遞</b>——WAYON維安推出8位MCU—WY8S8003系列

    DC3160A的Evaluation Software要如何取得呢?

    DC3160A的Evaluation Software要如何取得呢? DC3160A連接DC590透過QuikEval可以認(rèn)到LTC9101,點(diǎn)open後,出現(xiàn)Cannot Load COM Module for device, 無(wú)法開啟Evaluation Softwa
    發(fā)表于 01-03 10:03

    請(qǐng)問AD7960/7961 Evaluation Software能否實(shí)時(shí)顯示轉(zhuǎn)換的模擬量?

    想問問有沒有人知道AD7960評(píng)估板配套軟件AD7960/7961 Evaluation Software能否實(shí)時(shí)讀取顯示轉(zhuǎn)換的模擬量?
    發(fā)表于 12-21 06:07

    12月活動(dòng)速遞 | Copilot實(shí)戰(zhàn)揭秘、Azure在線技術(shù)公開課...

    原文標(biāo)題:12月活動(dòng)速遞 | Copilot實(shí)戰(zhàn)揭秘、Azure在線技術(shù)公開課... 文章出處:【微信公眾號(hào):微軟科技】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
    的頭像 發(fā)表于 11-28 10:15 ?388次閱讀
    12月活動(dòng)<b class='flag-5'>速遞</b> | Copilot實(shí)戰(zhàn)揭秘、Azure在線<b class='flag-5'>技術(shù)</b>公開課...

    利用 NVIDIA AI Foundation Models 構(gòu)建自定義企業(yè)級(jí)生成式 AI

    解決方案更快地投入市場(chǎng)。開發(fā)者需要一種簡(jiǎn)單的方法來(lái)試用模型,并通過 API 集成這些模型來(lái)評(píng)估其能力。這有助于他們確定哪種模型最適合其應(yīng)用。 NVIDIA AI Foundation Models
    的頭像 發(fā)表于 11-17 21:30 ?663次閱讀
    利用 NVIDIA AI Foundation <b class='flag-5'>Models</b> 構(gòu)建自定義企業(yè)級(jí)生成式 AI

    請(qǐng)問哪里可以下載到AD9361_Evaluation_Software?

    現(xiàn)在 哪里可以下載到 AD9361_Evaluation_Software?。。?/div>
    發(fā)表于 11-16 07:45

    USB接口設(shè)計(jì)畢業(yè)設(shè)計(jì)論文

    電子發(fā)燒友網(wǎng)站提供《USB接口設(shè)計(jì)畢業(yè)設(shè)計(jì)論文.pdf》資料免費(fèi)下載
    發(fā)表于 11-10 09:50 ?1次下載
    USB接口設(shè)計(jì)畢業(yè)設(shè)計(jì)<b class='flag-5'>論文</b>