0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

谷歌和微軟自然語(yǔ)言理解榜單中超越人類表現(xiàn)

工程師鄧生 ? 來(lái)源:澎湃新聞 ? 作者:澎湃新聞 ? 2021-01-08 16:54 ? 次閱讀

近日,科技公司谷歌和微軟相繼在一份權(quán)威自然語(yǔ)言理解榜單中超越人類的表現(xiàn),微軟宣稱這“標(biāo)志著邁向通用人工智能的重要里程碑。”

自然語(yǔ)言理解(Natural Language Understanding,簡(jiǎn)稱NLU)任務(wù)在人工智能領(lǐng)域歷史悠久,被譽(yù)為“人工智能皇冠上的明珠”。由于自然語(yǔ)言本身存在的歧義性或多義性,實(shí)現(xiàn)高質(zhì)量的自然語(yǔ)言理解有相當(dāng)?shù)碾y度。

為了衡量人工智能模型的自然語(yǔ)言理解能力,紐約大學(xué)、華盛頓大學(xué)、Facebook和DeepMind在2019年合作提出一個(gè)名為SuperGLUE的人工智能基準(zhǔn)測(cè)試。SuperGLUE由2018年GLUE演化而來(lái),其語(yǔ)言理解任務(wù)難度更大,包括問(wèn)答、自然語(yǔ)言推理、指代消解和詞義消歧等等。

SuperGLUE榜單

在最近更新的SuperGLUE上,微軟的DeBERTa模型和谷歌的T5+Meena模型分列第一第二,超越人類基準(zhǔn)線(human baseline)。這是人工智能首次在SuperGLUE中表現(xiàn)超越人類。

盡管在SuperGLUE測(cè)試上取得令人滿意的結(jié)果,但微軟坦言,DeBERTa模型還沒(méi)有達(dá)到人類智能的自然語(yǔ)言理解水平。人類非常善于利用從不同任務(wù)中學(xué)到的知識(shí)來(lái)解決新的任務(wù),這是AI模型需要學(xué)習(xí)的地方。

排名第一的微軟模型DeBERTa共有15億個(gè)參數(shù)。在SuperGLUE測(cè)試中,單個(gè)DeBERTa模型的宏觀平均分(89.9分)超過(guò)了人類的表現(xiàn)(89.8分);模型整體得分(90.3分)也超過(guò)人類基準(zhǔn)線(89.8分),在SuperGLUE排名第一。排名第二的T5+Meena模型得分90.2,同樣超過(guò)人類基準(zhǔn)線(89.8分)。

在SuperGLUE測(cè)試中,人工智能模型被要求回答類似這樣的問(wèn)題:

已知“這個(gè)孩子對(duì)疾病產(chǎn)生了免疫力”,問(wèn)“這是由什么導(dǎo)致的?”請(qǐng)選擇:A.“他避免接觸這種疾病”;或B.“他接種了這一疾病的疫苗”。

這是一個(gè)簡(jiǎn)單的因果推理任務(wù),人類很容易選出正確答案。但對(duì)人工智能模型而言,卻是不小的挑戰(zhàn)。為了得出正確答案,模型需要理解已知條件和選項(xiàng)之間的因果關(guān)系。

責(zé)任編輯:PSY

2021年1月6日,微軟在博客發(fā)文詳細(xì)介紹此次取得榜首的DeBERTa模型。

DeBERTa全稱Decoding-enhanced-BERT-with-disentangled attention,是一個(gè)基于Transformer架構(gòu)的神經(jīng)語(yǔ)言模型,采用自監(jiān)督學(xué)習(xí)方法對(duì)大量原始文本語(yǔ)料庫(kù)進(jìn)行預(yù)訓(xùn)練。DeBERTa的目標(biāo)是學(xué)習(xí)通用的語(yǔ)言表達(dá)形式,適用于各種自然語(yǔ)言理解任務(wù)。DeBERTa主要用到三種新技術(shù),分別是分離注意力機(jī)制、增強(qiáng)的掩碼解碼器和用于微調(diào)的虛擬對(duì)抗訓(xùn)練方法。

排名第二的T5+Meena技術(shù)來(lái)自谷歌。谷歌團(tuán)隊(duì)尚未詳細(xì)解釋其模型在SuperGLUE創(chuàng)紀(jì)錄的原因。但微軟在博客文章中評(píng)價(jià)稱,谷歌的T5模型由110億個(gè)參數(shù)組成,相比之下,15億參數(shù)的DeBERTa在訓(xùn)練和維護(hù)上更加節(jié)能,更容易壓縮并部署到各種程序中。

微軟正在將DeBERTa模型集成到下一代“圖靈自然語(yǔ)言生成模型”(Turing NLRv4)中。下一步,他們準(zhǔn)備向公眾公開(kāi)15億參數(shù)的DeBERTa模型及其源代碼。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 微軟
    +關(guān)注

    關(guān)注

    4

    文章

    6554

    瀏覽量

    103896
  • 谷歌
    +關(guān)注

    關(guān)注

    27

    文章

    6128

    瀏覽量

    104950
  • 自然語(yǔ)言
    +關(guān)注

    關(guān)注

    1

    文章

    285

    瀏覽量

    13320
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    使用LLM進(jìn)行自然語(yǔ)言處理的優(yōu)缺點(diǎn)

    自然語(yǔ)言處理(NLP)是人工智能和語(yǔ)言學(xué)領(lǐng)域的一個(gè)分支,它致力于使計(jì)算機(jī)能夠理解、解釋和生成人類語(yǔ)言。大型
    的頭像 發(fā)表于 11-08 09:27 ?197次閱讀

    圖像識(shí)別技術(shù)包括自然語(yǔ)言處理嗎

    計(jì)算機(jī)視覺(jué)技術(shù)對(duì)圖像進(jìn)行處理、分析和理解,從而實(shí)現(xiàn)對(duì)圖像的目標(biāo)、場(chǎng)景、行為等信息的識(shí)別和理解。圖像識(shí)別技術(shù)包括圖像預(yù)處理、特征提取、分類器設(shè)計(jì)、模型訓(xùn)練等多個(gè)環(huán)節(jié)。 1.2 自然語(yǔ)言
    的頭像 發(fā)表于 07-16 10:54 ?579次閱讀

    自然語(yǔ)言處理前饋網(wǎng)絡(luò)綜述

    自然語(yǔ)言處理(NLP)前饋網(wǎng)絡(luò)是人工智能和語(yǔ)言學(xué)領(lǐng)域的一個(gè)重要交叉學(xué)科,旨在通過(guò)計(jì)算機(jī)模型理解和處理人類語(yǔ)言。前饋神經(jīng)網(wǎng)絡(luò)(Feedforw
    的頭像 發(fā)表于 07-12 10:10 ?259次閱讀

    Transformer架構(gòu)在自然語(yǔ)言處理的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,自然語(yǔ)言處理(NLP)領(lǐng)域取得了顯著的進(jìn)步。其中,Transformer架構(gòu)的提出,為NLP領(lǐng)域帶來(lái)了革命性的變革。本文將深入探討Transformer架構(gòu)的核心思想、組成部分以及在自然語(yǔ)言處理領(lǐng)域的應(yīng)用,旨在幫助讀者全面
    的頭像 發(fā)表于 07-09 11:42 ?667次閱讀

    自然語(yǔ)言處理技術(shù)有哪些

    自然語(yǔ)言處理(Natural Language Processing,簡(jiǎn)稱NLP)是人工智能領(lǐng)域的一個(gè)分支,它致力于使計(jì)算機(jī)能夠理解、解釋和生成人類語(yǔ)言。
    的頭像 發(fā)表于 07-03 14:30 ?896次閱讀

    自然語(yǔ)言處理模式的優(yōu)點(diǎn)

    自然語(yǔ)言處理(Natural Language Processing,簡(jiǎn)稱NLP)是人工智能領(lǐng)域的一個(gè)重要分支,它致力于使計(jì)算機(jī)能夠理解、生成和處理人類語(yǔ)言。隨著技術(shù)的發(fā)展,
    的頭像 發(fā)表于 07-03 14:24 ?625次閱讀

    自然語(yǔ)言處理技術(shù)的核心是什么

    自然語(yǔ)言處理(Natural Language Processing,簡(jiǎn)稱NLP)是人工智能領(lǐng)域的一個(gè)重要分支,其核心目標(biāo)是使計(jì)算機(jī)能夠理解、生成和處理人類語(yǔ)言。NLP技術(shù)的發(fā)展已經(jīng)取
    的頭像 發(fā)表于 07-03 14:20 ?494次閱讀

    自然語(yǔ)言處理是什么技術(shù)的一種應(yīng)用

    廣泛,包括機(jī)器翻譯、語(yǔ)音識(shí)別、情感分析、信息檢索、問(wèn)答系統(tǒng)、文本摘要、聊天機(jī)器人等。 一、自然語(yǔ)言處理的基本概念 自然語(yǔ)言自然語(yǔ)言人類用來(lái)交流思想、表達(dá)情感和傳遞信息的
    的頭像 發(fā)表于 07-03 14:18 ?557次閱讀

    自然語(yǔ)言處理包括哪些內(nèi)容

    自然語(yǔ)言處理(Natural Language Processing,簡(jiǎn)稱NLP)是人工智能領(lǐng)域的一個(gè)重要分支,它涉及到計(jì)算機(jī)與人類語(yǔ)言之間的交互。NLP的目標(biāo)是讓計(jì)算機(jī)能夠理解、生成
    的頭像 發(fā)表于 07-03 14:15 ?678次閱讀

    自然語(yǔ)言列舉法描述法各自的特點(diǎn)

    自然語(yǔ)言處理(Natural Language Processing,簡(jiǎn)稱NLP)是人工智能領(lǐng)域的一個(gè)重要分支,它涉及到計(jì)算機(jī)與人類語(yǔ)言之間的交互。自然語(yǔ)言處理技術(shù)使得計(jì)算機(jī)能夠
    的頭像 發(fā)表于 07-03 14:13 ?923次閱讀

    自然語(yǔ)言處理屬于人工智能的哪個(gè)領(lǐng)域

    之間的交互,旨在使計(jì)算機(jī)能夠理解、生成和處理自然語(yǔ)言。 自然語(yǔ)言處理:人工智能的皇冠上的明珠 引言 人工智能作為一門跨學(xué)科的研究領(lǐng)域,涵蓋了計(jì)算機(jī)科學(xué)、數(shù)學(xué)、心理學(xué)、語(yǔ)言學(xué)等多個(gè)學(xué)科。
    的頭像 發(fā)表于 07-03 14:09 ?1033次閱讀

    什么是自然語(yǔ)言處理 (NLP)

    自然語(yǔ)言處理(Natural Language Processing, NLP)是人工智能領(lǐng)域中的一個(gè)重要分支,它專注于構(gòu)建能夠理解和生成人類語(yǔ)言的計(jì)算機(jī)系統(tǒng)。NLP的目標(biāo)是使計(jì)算機(jī)能
    的頭像 發(fā)表于 07-02 18:16 ?835次閱讀

    自然語(yǔ)言處理技術(shù)的原理的應(yīng)用

    自然語(yǔ)言處理(Natural Language Processing, NLP)作為人工智能(AI)領(lǐng)域的一個(gè)重要分支,旨在使計(jì)算機(jī)能夠理解和處理人類自然語(yǔ)言。隨著互聯(lián)網(wǎng)的普及和大數(shù)據(jù)
    的頭像 發(fā)表于 07-02 12:50 ?405次閱讀

    神經(jīng)網(wǎng)絡(luò)在自然語(yǔ)言處理的應(yīng)用

    自然語(yǔ)言處理(NLP)是人工智能領(lǐng)域中的一個(gè)重要分支,它研究的是如何使計(jì)算機(jī)能夠理解和生成人類自然語(yǔ)言。隨著人工智能技術(shù)的飛速發(fā)展,神經(jīng)網(wǎng)絡(luò)在自然語(yǔ)
    的頭像 發(fā)表于 07-01 14:09 ?414次閱讀

    2023年科技圈熱詞“大語(yǔ)言模型”,與自然語(yǔ)言處理有何關(guān)系

    電子發(fā)燒友網(wǎng)報(bào)道(文/李彎彎)大語(yǔ)言模型(LLM)是基于海量文本數(shù)據(jù)訓(xùn)練的深度學(xué)習(xí)模型。它不僅能夠生成自然語(yǔ)言文本,還能夠深入理解文本含義,處理各種自然語(yǔ)言任務(wù),如文本摘要、問(wèn)答、翻譯
    的頭像 發(fā)表于 01-02 09:28 ?2539次閱讀