0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

AGIEval:準(zhǔn)確考察基礎(chǔ)模型類人能力的基準(zhǔn)評估工具

jf_WZTOguxH ? 來源:AI前線 ? 2023-05-15 15:45 ? 次閱讀

對基礎(chǔ)模型在處理人類任務(wù)時的一般能力做出準(zhǔn)確評估,已經(jīng)成為通用人工智能(AGI)開發(fā)和應(yīng)用領(lǐng)域的一大重要問題?;谌斯?shù)據(jù)集的傳統(tǒng)基準(zhǔn)往往無法準(zhǔn)確反映模型能力是否達到人類水平。

近日,微軟的一個華人研究團隊發(fā)布了一項新型基準(zhǔn)測試 AGIEval,這項基準(zhǔn)測試專門用于對基礎(chǔ)模型的類人能力做準(zhǔn)確考察(涵蓋高考、法學(xué)入學(xué)考試、數(shù)學(xué)競賽和律師資格考試等)。

該研究團隊使用此項基準(zhǔn)評估了當(dāng)前最先進的多個基礎(chǔ)模型,包括 GPT-4、ChatGPT 和 Text-Davinci-003 等。

令人印象深刻的是,GPT-4 在 SAT、LSAT 和數(shù)學(xué)競賽中的表現(xiàn)均超過人類平均水平,在 SAT 數(shù)學(xué)測試中達成 95% 的準(zhǔn)確率,在中國高考英語測試中準(zhǔn)確率亦達到 92.5%,證明了當(dāng)代基礎(chǔ)模型的非凡性能。

與之對應(yīng),研究人員發(fā)現(xiàn) GPT-4,在需要復(fù)雜推理或涉及特定領(lǐng)域知識的任務(wù)中表現(xiàn)尚不理想。

通過對模型能力(理解、知識、推理和計算等)的全面分析,有助于揭示這些模型的優(yōu)勢和局限性,為增強其通用能力的未來發(fā)展方向提供支持。通過測試涉及人類認知和決策能力的任務(wù),AGIEval 能夠?qū)A(chǔ)模型在現(xiàn)實場景中的性能做出更可靠、更有意義的評估。

測試中的全部數(shù)據(jù)、代碼和模型輸出均通過此 https URL(https://github.com/microsoft/AGIEval)發(fā)布。

AGIEval 項目介紹

AGIEval 是一項考察基礎(chǔ)模型類人能力的基準(zhǔn)測試,專門用于評估基礎(chǔ)模型在人類認知和問題解決相關(guān)任務(wù)中表現(xiàn)出的一般能力。

該基準(zhǔn)選取 20 種面向普通人類考生的官方、公開、高標(biāo)準(zhǔn)往常和資格考試,包括普通大學(xué)入學(xué)考試(中國高考和美國 SAT 考試)、法學(xué)入學(xué)考試、數(shù)學(xué)競賽、律師資格考試、國家公務(wù)員考試等等。

關(guān)于此基準(zhǔn)的完整描述,請參閱論文《AGIEval:準(zhǔn)確考察基礎(chǔ)模型類人能力的基準(zhǔn)評估工具》(https://arxiv.org/pdf/2304.06364.pdf)。

任務(wù)與數(shù)據(jù)

AGIEval v1.0 包含 20 項任務(wù),具體為 2 項完形填空任務(wù)(高考數(shù)學(xué))和 18 項多選題回答任務(wù)。在選擇題部分,高物理和 JEC-QA 部分對應(yīng)一個或多個正確答案,其余任務(wù)則僅有一個正確答案。

下表所示,為測試題目的完整列表。

a48a24c6-f295-11ed-90ce-dac502259ad0.png

可以在 data/v1 文件夾內(nèi)下載到除 JEC-QA 以外的所有后處理數(shù)據(jù)。關(guān)于 JEC-QA 部分,請前往 JEC-QA 網(wǎng)站獲取數(shù)據(jù)。

使用 JEC-QA 訓(xùn)練數(shù)據(jù)的前 1000 個實例作為測試集。所有數(shù)據(jù)集的數(shù)據(jù)格式如下:

{
    "passage": null,
    "question": "設(shè)集合 $A=\{x \mid x \geq 1\}, B=\{x \mid-1-1\}$",
        "(B)$\{x \mid x \geq 1\}$",
        "(C)$\{x \mid-1

其中高考語言、高考英語、兩科 logiqa、全部 LSAT 和 SAT 均可使用 passage 字段。多選任務(wù)的答案保存在 label 字段內(nèi)。完形填空任務(wù)的答案保存在 answer 字段內(nèi)。

我們還在 data/v1/few_shot_prompts 文件中提供了小樣本學(xué)習(xí)的提示詞。

基線系統(tǒng)

我們在 AGIEval v1.0 上評估了基準(zhǔn)系統(tǒng)的性能?;€系統(tǒng)基于以下模型:text-davinci-003、ChatGPT (gpt-3.5-turbo) 和 GPT-4。您可以按照以下步驟重現(xiàn)測試結(jié)果:

1.在 openai_api.py 文件中填寫您的 OpenAI API 密鑰。

2.運行 run_prediction.py 文件以獲取結(jié)果。

模型輸出

?您可以在 Onedrive 鏈接(https://1drv.ms/u/s!Amt8n9AJEyxcg8YQKFm1rSEyV9GU_A?e=VEfJVS)中下載到基線系統(tǒng)的零樣本、零樣本思維鏈、少樣本和少樣本思維鏈輸出。請注意,我們修復(fù)了 SAT-en 實例中的 52 處拼寫錯誤,并將很快發(fā)布更新后的數(shù)據(jù)集輸出。?

評估

您可以運行 post_process_and_evaluation.py 文件來獲取評估結(jié)果。

引用

如果您需要在研究中使用 AGIEval 數(shù)據(jù)集或代碼,請引用論文:

@misc{zhong2023agieval,
      title={AGIEval: A Human-Centric Benchmark for Evaluating Foundation Models},
      author={Wanjun Zhong and Ruixiang Cui and Yiduo Guo and Yaobo Liang and Shuai Lu and Yanlin Wang and Amin Saied and Weizhu Chen and Nan Duan},
      year={2023},
      eprint={2304.06364},
      archivePrefix={arXiv},
      primaryClass={cs.CL}
}

在使用時,請務(wù)必在您的論文中引用所有獨立數(shù)據(jù)集。我們提供以下引用信息



@inproceedings{ling-etal-2017-program,
    title = "Program Induction by Rationale Generation: Learning to Solve and Explain Algebraic Word Problems",
    author = "Ling, Wang  and
      Yogatama, Dani  and
      Dyer, Chris  and
      Blunsom, Phil",
    booktitle = "Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers)",
    month = jul,
    year = "2017",
    address = "Vancouver, Canada",
    publisher = "Association for Computational Linguistics",
    url = "https://aclanthology.org/P17-1015",
    doi = "10.18653/v1/P17-1015",
    pages = "158--167",
    abstract = "Solving algebraic word problems requires executing a series of arithmetic operations{---}a program{---}to obtain a final answer. However, since programs can be arbitrarily complicated, inducing them directly from question-answer pairs is a formidable challenge. To make this task more feasible, we solve these problems by generating answer rationales, sequences of natural language and human-readable mathematical expressions that derive the final answer through a series of small steps. Although rationales do not explicitly specify programs, they provide a scaffolding for their structure via intermediate milestones. To evaluate our approach, we have created a new 100,000-sample dataset of questions, answers and rationales. Experimental results show that indirect supervision of program learning via answer rationales is a promising strategy for inducing arithmetic programs.",
}


@inproceedings{hendrycksmath2021,
  title={Measuring Mathematical Problem Solving With the MATH Dataset},
  author={Dan Hendrycks and Collin Burns and Saurav Kadavath and Akul Arora and Steven Basart and Eric Tang and Dawn Song and Jacob Steinhardt},
  journal={NeurIPS},
  year={2021}
}


@inproceedings{Liu2020LogiQAAC,
  title={LogiQA: A Challenge Dataset for Machine Reading Comprehension with Logical Reasoning},
  author={Jian Liu and Leyang Cui and Hanmeng Liu and Dandan Huang and Yile Wang and Yue Zhang},
  booktitle={International Joint Conference on Artificial Intelligence},
  year={2020}
}


@inproceedings{zhong2019jec,
  title={JEC-QA: A Legal-Domain Question Answering Dataset},
  author={Zhong, Haoxi and Xiao, Chaojun and Tu, Cunchao and Zhang, Tianyang and Liu, Zhiyuan and Sun, Maosong},
  booktitle={Proceedings of AAAI},
  year={2020},
}


@article{Wang2021FromLT,
  title={From LSAT: The Progress and Challenges of Complex Reasoning},
  author={Siyuan Wang and Zhongkun Liu and Wanjun Zhong and Ming Zhou and Zhongyu Wei and Zhumin Chen and Nan Duan},
  journal={IEEE/ACM Transactions on Audio, Speech, and Language Processing},
  year={2021},
  volume={30},
  pages={2201-2216}
}

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1789

    文章

    46654

    瀏覽量

    237090
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1200

    瀏覽量

    24619
  • ChatGPT
    +關(guān)注

    關(guān)注

    29

    文章

    1546

    瀏覽量

    7360

原文標(biāo)題:AGIEval:準(zhǔn)確考察基礎(chǔ)模型類人能力的基準(zhǔn)評估工具

文章出處:【微信號:AI前線,微信公眾號:AI前線】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    REF54精密電壓基準(zhǔn)評估模塊

    電子發(fā)燒友網(wǎng)站提供《REF54精密電壓基準(zhǔn)評估模塊.pdf》資料免費下載
    發(fā)表于 10-30 09:11 ?0次下載
    REF54精密電壓<b class='flag-5'>基準(zhǔn)</b><b class='flag-5'>評估</b>模塊

    如何評估 ChatGPT 輸出內(nèi)容的準(zhǔn)確

    評估 ChatGPT 輸出內(nèi)容的準(zhǔn)確性是一個復(fù)雜的過程,因為它涉及到多個因素,包括但不限于數(shù)據(jù)的質(zhì)量和多樣性、模型的訓(xùn)練、上下文的理解、以及輸出內(nèi)容的邏輯一致性。以下是一些評估 Cha
    的頭像 發(fā)表于 10-25 17:48 ?464次閱讀

    如何評估AI大模型的效果

    評估AI大模型的效果是一個復(fù)雜且多維度的過程,涉及多個方面的考量。以下是一些關(guān)鍵的評估方法和步驟: 一、基準(zhǔn)測試(Benchmarking) 使用標(biāo)準(zhǔn)數(shù)據(jù)集和任務(wù)來
    的頭像 發(fā)表于 10-23 15:21 ?261次閱讀

    【每天學(xué)點AI】人工智能大模型評估標(biāo)準(zhǔn)有哪些?

    OpenAI新模型o1號稱編程能力8倍殺GPT-4o,MMLU媲美人類專家,MMLU是什么?評估模型的標(biāo)準(zhǔn)是什么?相信大家在閱讀大模型相關(guān)
    的頭像 發(fā)表于 10-17 16:49 ?296次閱讀
    【每天學(xué)點AI】人工智能大<b class='flag-5'>模型</b><b class='flag-5'>評估</b>標(biāo)準(zhǔn)有哪些?

    怎么判斷電源的最大負載能力?帶載測試方式助您準(zhǔn)確評估

    帶載能力指電源在其規(guī)定條件下,所能承受的最大負載能力。電源帶載測試就是對電源模塊的負載能力進行測試,評估電源在各負載條件下的輸出穩(wěn)定性和可靠性。帶載測試是電源模塊設(shè)計和生產(chǎn)過程中的重要
    的頭像 發(fā)表于 09-29 16:43 ?329次閱讀
    怎么判斷電源的最大負載<b class='flag-5'>能力</b>?帶載測試方式助您<b class='flag-5'>準(zhǔn)確</b><b class='flag-5'>評估</b>

    NVIDIA文本嵌入模型NV-Embed的精度基準(zhǔn)

    NVIDIA 的最新嵌入模型 NV-Embed —— 以 69.32 的分數(shù)創(chuàng)下了嵌入準(zhǔn)確率的新紀(jì)錄海量文本嵌入基準(zhǔn)測試(MTEB)涵蓋 56 項嵌入任務(wù)。
    的頭像 發(fā)表于 08-23 16:54 ?1921次閱讀
    NVIDIA文本嵌入<b class='flag-5'>模型</b>NV-Embed的精度<b class='flag-5'>基準(zhǔn)</b>

    Al大模型機器

    理解能力強大: AI大模型機器可以理解和生成自然語言,能夠進行復(fù)雜的對話和語言任務(wù)。它們能夠識別語言中的語義、語境和情感,并據(jù)此作出適當(dāng)?shù)幕貞?yīng)。廣泛的知識儲備: 這些模型基于大規(guī)模的
    發(fā)表于 07-05 08:52

    商湯小浣熊榮獲中國信通院代碼大模型能力評估“三好生”

    近日,商湯小浣熊代碼大模型在中國信通院“可信AI代碼大模型評估”中,榮獲4+級最高評級,成為國內(nèi)首批通過該項評估的企業(yè)之一。
    的頭像 發(fā)表于 06-13 15:37 ?392次閱讀
    商湯小浣熊榮獲中國信通院代碼大<b class='flag-5'>模型</b><b class='flag-5'>能力</b><b class='flag-5'>評估</b>“三好生”

    【大語言模型:原理與工程實踐】大語言模型的應(yīng)用

    ,它通過抽象思考和邏輯推理,協(xié)助我們應(yīng)對復(fù)雜的決策。 相應(yīng)地,我們設(shè)計了兩任務(wù)來檢驗大語言模型能力。一是感性的、無需理性能力的任務(wù)
    發(fā)表于 05-07 17:21

    【大語言模型:原理與工程實踐】大語言模型的評測

    工具。通過這一框架,研究人員和使用者可以更準(zhǔn)確地了解模型在實際應(yīng)用中的表現(xiàn),為后續(xù)的優(yōu)化和產(chǎn)品化提供有力支持。針對語言理解評測任務(wù),特別是古文及諺語理解,我們深入
    發(fā)表于 05-07 17:12

    【大語言模型:原理與工程實踐】核心技術(shù)綜述

    和量化: 減小模型尺寸和計算復(fù)雜度,使模型更適合在計算資源受限的環(huán)境下部署。 解釋性和可視化: 提供模型決策的可視化和解釋工具,讓模型
    發(fā)表于 05-05 10:56

    Aigtek:衡量基準(zhǔn)電壓源的技術(shù)指標(biāo)有哪些

    基準(zhǔn)電壓源在電子領(lǐng)域中扮演著至關(guān)重要的角色,它為各種應(yīng)用提供了穩(wěn)定、可靠的電壓。為了確保電路的準(zhǔn)確性和可靠性,工程師需要關(guān)注和評估基準(zhǔn)電壓源的技術(shù)指標(biāo)。衡量
    的頭像 發(fā)表于 03-14 11:22 ?503次閱讀
    Aigtek:衡量<b class='flag-5'>基準(zhǔn)</b>電壓源的技術(shù)指標(biāo)有哪些

    鴻蒙原生應(yīng)用/元服務(wù)開發(fā)-Stage模型能力接口(八)

    一、說明 ExtensionAbility是特定場景擴展能力的基,提供系統(tǒng)配置更新回調(diào)和系統(tǒng)內(nèi)存調(diào)整回調(diào)。本模塊首批接口從API version 9 開始支持。后續(xù)版本的新增接口,采用上角標(biāo)單
    發(fā)表于 12-20 16:12

    如何準(zhǔn)確評估減速電機傳動效率

    如何準(zhǔn)確評估減速電機傳動效率? 準(zhǔn)確評估減速電機傳動效率是確保工業(yè)設(shè)備正常運行和提高能源利用效率的重要環(huán)節(jié)。本文將詳細介紹減速電機傳動效率的評估
    的頭像 發(fā)表于 12-19 10:01 ?1129次閱讀

    大型語言模型的邏輯推理能力探究

    最新研究揭示,盡管大語言模型LLMs在語言理解上表現(xiàn)出色,但在邏輯推理方面仍有待提高。為此,研究者們推出了GLoRE,一個全新的邏輯推理評估基準(zhǔn),包含12個數(shù)據(jù)集,覆蓋三大任務(wù)類型。
    的頭像 發(fā)表于 11-23 15:05 ?912次閱讀
    大型語言<b class='flag-5'>模型</b>的邏輯推理<b class='flag-5'>能力</b>探究