0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

NLP:關(guān)系抽取到底在乎什么

深度學(xué)習(xí)自然語言處理 ? 來源:深度學(xué)習(xí)自然語言處理 ? 作者:高能A ? 2021-01-07 14:46 ? 次閱讀

關(guān)系抽取到底在乎什么?這是來自EMNLP20上清華大學(xué)劉知遠團隊的“靈魂發(fā)問”~ 關(guān)系抽取是每一位NLPer都很熟知的任務(wù),特別是基于BERT的神經(jīng)關(guān)系抽取模型已經(jīng)登頂各大榜單SOTA,某些甚至直逼人類表現(xiàn)。但也許你和JayJay一樣,可能只是調(diào)個包、從不過問關(guān)系抽取的核心要素是啥吧~ 在劉知遠老師的EMNLP20論文《Learning from Context or Names? An Empirical Study on Neural Relation Extraction》中,就「關(guān)系抽取到底在乎什么」這一問題進行深入全面的探究,是難得的好文!

注意:本文所稱的關(guān)系抽取也稱關(guān)系分類,即判斷兩個實體

論文下載:https://arxiv.org/pdf/2010.01923.pdfgithub開源:https://github.com/thunlp/RE-Context-or-Names 為具備更好的閱讀體驗,本文以QA形式進行組織:

8316f48a-5036-11eb-8b86-12bb97331649.png

我們廢話不說,先po結(jié)論(劃重點): 1、對關(guān)系抽取的兩個主要特征(上下文信息和實體信息),進行了對比分析發(fā)現(xiàn):

上下文信息 和 實體信息 對于關(guān)系模型都很關(guān)鍵;

上下文信息是關(guān)系模型的主要信息來源;

實體信息中最重要的實體類型信息,但模型會存在對實體信息的過度依賴問題;

現(xiàn)有的數(shù)據(jù)集可能會通過實體泄漏淺層的啟發(fā)式信息,導(dǎo)致當(dāng)前關(guān)系任務(wù)的指標(biāo)虛高!

2、構(gòu)建了關(guān)系預(yù)訓(xùn)練模型,基于關(guān)系抽取的實體遮蔽的對比學(xué)習(xí)框架:

能幫助模型更好地的借助上下文信息和實體類型信息,避免“死記硬背”實體表面表述;

提高了多個場景下神經(jīng)關(guān)系抽取模型的有效性和魯棒性,特別是在低資源場景下;

Q1: 關(guān)系抽取為什么主要利用「上下文信息」和「實體信息」?

836f28e4-5036-11eb-8b86-12bb97331649.png

為什么本篇論文會選取上下文和實體信息進行對比研究呢?作者認(rèn)為:

上下文信息:從人的直覺來看,文本上下文是主要的信息來源;最為簡單的一種方式,就是可以用關(guān)系模板進行歸納。如上圖所示,「... be founded ... by ...」模板就可以很好地映射到某一類關(guān)系上。因此,上下文關(guān)系肯定會對關(guān)系預(yù)測結(jié)構(gòu)起著某種作用。

實體信息:實體信息主要包括實體類型、實體ID、實體屬性信息等,如果實體可以被鏈接到知識圖譜上,那么相關(guān)信息也可以被模型所利用。既然關(guān)系抽取基于實體pair進行的分類預(yù)測,那么實體信息就必不可少了。

Q2: 關(guān)系抽取的baseline模型選擇哪些?

83a4f046-5036-11eb-8b86-12bb97331649.png

為了更好地進行分析驗證,本文主要主要采取CNN、BERT、MTB三種模型進行實驗(如上圖所示):采取BERT時主要是提取實體pair的相關(guān)標(biāo)識符對應(yīng)的表示進行關(guān)系分類。 MTB是由Google在2019年提出預(yù)訓(xùn)練關(guān)系模型 ,其只在獲得更好的適配于關(guān)系抽取的特征表示,其具體的預(yù)訓(xùn)練方式為:認(rèn)為包含相同實體pair的句子表示相同的關(guān)系,將相似度得分作為預(yù)訓(xùn)練目標(biāo),如下圖示意。

83cfc8de-5036-11eb-8b86-12bb97331649.png

Q3: 「上下文信息」和「實體信息」到底哪家強?

83fbcfb0-5036-11eb-8b86-12bb97331649.png

為了分析「上下文信息」和「實體信息」對于關(guān)系模型的內(nèi)在影響,論文設(shè)置眾多輸入格式(如上圖所示):

Context+Mention (C+M) :即最為廣泛的使用方式,在原句子輸入的同時,強調(diào)實體mention:對于BERT模型,采用位置向量和特殊的實體標(biāo)識符來強化metion。

Context+Type (C+T) :將實體mention用其實體類型Type代替,如上圖,「SpaceX」用「organization」代替,「Elon Musk」用「person」代替。

Only Context (OnlyC) :即只利用上下文信息,將實體mention用「subject」或「object」代替,通過這種方式可以將實體信息源完全阻擋。

Only Mention (OnlyM) :即只利用實體提及,忽略其他文本上下文的輸入。

Only Type (OnlyT) :即只利用實體類型信息,如「organization」「SEP」「person」。

論文通過上述設(shè)置在最大的有監(jiān)督關(guān)系數(shù)據(jù)集TACRED上(共42種關(guān)系,10w+實例)進行了相關(guān)實驗,結(jié)果如下(指標(biāo)為micro F1值):

842bd2fa-5036-11eb-8b86-12bb97331649.png

由上圖的紅框(OnlyC、OnlyM、OnlyT)可以看出,只利用上下文信息或?qū)嶓w信息指標(biāo)都大幅下降,這表明:上下文信息 和 實體信息 對于關(guān)系模型都很關(guān)鍵;

844a9e56-5036-11eb-8b86-12bb97331649.png

由上圖的紅框可以看出,C+M和C+T表現(xiàn)一致,這表明:實體提及中的類型Type信息很重要!這與之前女神的SOTA《反直覺!陳丹琦用pipeline方式刷新關(guān)系抽取SOTA》中關(guān)于「類型信息」的重要性相互佐證~

84aadf96-5036-11eb-8b86-12bb97331649.png

由上圖的紅框可以看出:

OnlyC總體高于OnlyM,可以看出:上下文信息比實體信息更重要~(PS:CNN中OnlyC沒有明顯高于OnlyM,也說明其上下文的捕捉能力不如BERT吧)

OnlyM也有較高指標(biāo),這表明:現(xiàn)有的數(shù)據(jù)集可能會通過實體泄漏淺層的啟發(fā)式信息,導(dǎo)致當(dāng)前關(guān)系任務(wù)的指標(biāo)虛高!

此外,本篇論文也通過Case Study進一步證明了上述結(jié)果、并有了新的發(fā)現(xiàn):

C+M與C+T類似,共享95.7%的正確預(yù)測和68.1%的錯誤預(yù)測,充分說明了實體提及的主要的信息來源是其類型Type信息。

C+M容易對實體提及產(chǎn)生過高的偏置依賴,特別是容易對訓(xùn)練集中的實體提及進行“死記硬背”,如下圖:模型容易死記住訓(xùn)練集中「Washington」的實體提及只存在于「stateorprovinceofresidence 」關(guān)系中,從而導(dǎo)致關(guān)系預(yù)測錯誤。

84dae8d0-5036-11eb-8b86-12bb97331649.png

C+T不容易捕捉共指信息和語義信息,如下圖所示,「Natalie」和「she」兩個實體如果被實體Type替代后,不容易捕捉到原有的共指關(guān)系:

850591ca-5036-11eb-8b86-12bb97331649.png

再通過對OnlyC的case分析中發(fā)現(xiàn):人類可以本能地從上下文中判斷關(guān)系,但模型似乎在捕捉上下文信息的能力上還有很大缺失。如下圖所示,具體體現(xiàn)在3個方面:

Wrong:對于那些很清晰的關(guān)系模式仍然會預(yù)測錯誤。

No pattern:對于那些不具備pattern的關(guān)系會預(yù)測錯誤。

Confusing:對于困惑的關(guān)系類型缺乏魯棒能力。

85514c14-5036-11eb-8b86-12bb97331649.png

Q4: 如何提升關(guān)系模型的預(yù)測性能? 從上文的分析中,我們可以發(fā)現(xiàn):上下文信息和實體信息對于關(guān)系模型都很重要,但在一些情況下,關(guān)系模型并不能很好地理解關(guān)系模式、會過度依賴于實體mention的淺層提示信息。 為了更好地捕捉上下文信息和實體類型Type信息,論文提出了一種基于實體遮蔽的對比學(xué)習(xí)框架,來進行關(guān)系預(yù)訓(xùn)練。 1、對比學(xué)習(xí)數(shù)據(jù)生成方法

860d47ca-5036-11eb-8b86-12bb97331649.png

對比學(xué)習(xí)預(yù)訓(xùn)練框架如上圖所示,論文借鑒了「對比學(xué)習(xí)」的思想,通過聚合“neighbors”、分離“non-neighbors”來學(xué)習(xí)特征表示;通過這種模式,“neighbors”具備相似的表示。因此,定義“neighbors”對于對比學(xué)習(xí)至關(guān)重要。

本文定義:實體pair共享同種關(guān)系的句子是“neighbors”。

為了防止模型在預(yù)訓(xùn)練過程中對實體mention死記硬背、或者抽取比較淺層的表面特征,作者采取了隨機mask實體的辦法,將實體mention替換為「BLANK」,替換率為0.7. 事實上,生成預(yù)訓(xùn)練數(shù)據(jù)是通過遠程監(jiān)督的方法進行,這雖然會造成噪聲;但作者認(rèn)為噪聲問題對于預(yù)訓(xùn)練框架不是關(guān)鍵的,因為:預(yù)訓(xùn)練目標(biāo)是相對于像BERT這樣的原始預(yù)訓(xùn)練模型,獲得相對更好的關(guān)系表示,而不是直接訓(xùn)練關(guān)系模型對于下游任務(wù),因此數(shù)據(jù)中的噪聲是可以接受的。 通過上述的對比學(xué)習(xí)生成方法,預(yù)訓(xùn)練模型可以學(xué)習(xí)更好地從實體metion中掌握類型Type信息,并從文本上下文中提取關(guān)系語義:

成對的兩個句子雖然包含不同的實體pair,但共享相同的關(guān)系,提示模型發(fā)現(xiàn)這些實體mention之間的聯(lián)系。此外,實體mask策略可以有效地避免簡單的記憶實體mention。這最終鼓勵模型利用實體類型Type信息。

生成策略提供了相同關(guān)系類型下的多種上下文集合,這有利于模型學(xué)習(xí)從多種表達方式中提取關(guān)系pattern。

2、對比學(xué)習(xí)訓(xùn)練目標(biāo) 上述預(yù)訓(xùn)練的目標(biāo)函數(shù)共包含兩部分:對比學(xué)習(xí)目標(biāo)( Contrastive Pre-training,CP)和遮蔽語言模型(MLM):

8683c74c-5036-11eb-8b86-12bb97331649.png

對比損失CP采取隨機負(fù)樣本采樣,加速訓(xùn)練過程。 3、對比學(xué)習(xí)實驗結(jié)果

86a806fc-5036-11eb-8b86-12bb97331649.png

基于對比學(xué)習(xí)的預(yù)訓(xùn)練框架的關(guān)系模型最終表現(xiàn)如何?作者在不同的數(shù)據(jù)集上設(shè)置不同數(shù)據(jù)使用量(1%、10%、100%)進行了對比分析,發(fā)現(xiàn):對比學(xué)習(xí)模型CP在不同數(shù)據(jù)集上均超過了BERT和MTB,特別是在低資源(1%數(shù)據(jù)量)條件下也能呈現(xiàn)較高指標(biāo),如上圖紅框所示。 可見,對比學(xué)習(xí)機制相比于Google的MTB模型更具備多樣性的數(shù)據(jù)特征、能更充分的學(xué)習(xí)實體類型Type信息。

總結(jié) 本文主要基于「關(guān)系抽取到底在乎什么」、「上下文和實體mention如何影響關(guān)系模型」進行了討論,發(fā)現(xiàn):

文本上下文和實體mention都給關(guān)系模型提供了關(guān)鍵信息;

關(guān)系抽取數(shù)據(jù)集可能會通過實體泄漏淺層的啟發(fā)式信息,導(dǎo)致當(dāng)前關(guān)系任務(wù)的指標(biāo)虛高!

關(guān)系模型并不能很好地理解關(guān)系模式、會過度依賴于實體mention的淺層提示信息

基于上述幾點,論文提出了一種基于實體遮蔽的對比學(xué)習(xí)框架來改進關(guān)系模型的表現(xiàn),最終提高了多個場景下神經(jīng)關(guān)系抽取模型的有效性和魯棒性(特別是在低資源條件下)。 有了本文全面的實驗分析,或許未來我們可以進一步研究開放關(guān)系抽取和關(guān)系發(fā)現(xiàn)問題,這些需要我們考慮zero-shot問題,但可以確信:預(yù)訓(xùn)練關(guān)系模型將對這些領(lǐng)域產(chǎn)生積極影響。

責(zé)任編輯:xj

原文標(biāo)題:劉知遠老師的“靈魂發(fā)問”:關(guān)系抽取到底在乎什么?

文章出處:【微信公眾號:深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 自然語言
    +關(guān)注

    關(guān)注

    1

    文章

    279

    瀏覽量

    13295
  • nlp
    nlp
    +關(guān)注

    關(guān)注

    1

    文章

    481

    瀏覽量

    21935
  • 知識圖譜
    +關(guān)注

    關(guān)注

    2

    文章

    132

    瀏覽量

    7663

原文標(biāo)題:劉知遠老師的“靈魂發(fā)問”:關(guān)系抽取到底在乎什么?

文章出處:【微信號:zenRRan,微信公眾號:深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    求助,AD7190關(guān)于Σ-Δ ADC其中的抽取濾波器的數(shù)據(jù)轉(zhuǎn)換問題求解

    AD7190可以通過模式寄存器的FS[0:9]設(shè)置輸出速率, 0-1023的范圍;此時設(shè)置的數(shù)據(jù)速率選擇位是否就是Σ-Δ ADC抽取濾波器的抽取比? 關(guān)于抽取濾波器,此時我設(shè)置的為1023,那我是否
    發(fā)表于 09-09 06:11

    nlp邏輯層次模型的特點

    NLP(自然語言處理)邏輯層次模型是一種用于理解和生成自然語言文本的計算模型。它將自然語言文本分解為不同的層次,以便于計算機更好地處理和理解。以下是對NLP邏輯層次模型特點的分析: 詞匯層次 詞匯
    的頭像 發(fā)表于 07-09 10:39 ?190次閱讀

    nlp神經(jīng)語言和NLP自然語言的區(qū)別和聯(lián)系

    神經(jīng)語言(Neuro-Linguistic Programming,NLP) 神經(jīng)語言是一種心理學(xué)方法,它研究人類思維、語言和行為之間的關(guān)系NLP的核心理念是,我們可以通過改變我們的思維方式和語言
    的頭像 發(fā)表于 07-09 10:35 ?561次閱讀

    nlp自然語言處理框架有哪些

    自然語言處理(Natural Language Processing,簡稱NLP)是計算機科學(xué)和人工智能領(lǐng)域的一個重要分支,它致力于使計算機能夠理解和處理人類語言。隨著技術(shù)的發(fā)展,NLP領(lǐng)域出現(xiàn)了
    的頭像 發(fā)表于 07-09 10:28 ?295次閱讀

    nlp自然語言處理的主要任務(wù)及技術(shù)方法

    自然語言處理(Natural Language Processing,簡稱NLP)是人工智能和語言學(xué)領(lǐng)域的一個分支,它研究如何讓計算機能夠理解、生成和處理人類語言。NLP技術(shù)在許多領(lǐng)域都有廣泛
    的頭像 發(fā)表于 07-09 10:26 ?406次閱讀

    nlp自然語言處理模型怎么做

    自然語言處理(Natural Language Processing,簡稱NLP)是人工智能領(lǐng)域的一個重要分支,它涉及到計算機對人類語言的理解和生成。隨著深度學(xué)習(xí)技術(shù)的發(fā)展,NLP領(lǐng)域取得了顯著
    的頭像 發(fā)表于 07-05 09:59 ?353次閱讀

    nlp自然語言處理的應(yīng)用有哪些

    自然語言處理(Natural Language Processing,簡稱NLP)是人工智能領(lǐng)域的一個分支,它致力于使計算機能夠理解和生成自然語言。隨著技術(shù)的發(fā)展,NLP已經(jīng)在許多領(lǐng)域得到了廣泛
    的頭像 發(fā)表于 07-05 09:55 ?1974次閱讀

    NLP技術(shù)在人工智能領(lǐng)域的重要性

    在自然語言處理(Natural Language Processing, NLP)與人工智能(Artificial Intelligence, AI)的交織發(fā)展中,NLP技術(shù)作為連接人類語言與機器
    的頭像 發(fā)表于 07-04 16:03 ?244次閱讀

    NLP模型中RNN與CNN的選擇

    在自然語言處理(NLP)領(lǐng)域,循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)與卷積神經(jīng)網(wǎng)絡(luò)(CNN)是兩種極為重要且廣泛應(yīng)用的網(wǎng)絡(luò)結(jié)構(gòu)。它們各自具有獨特的優(yōu)勢,適用于處理不同類型的NLP任務(wù)。本文旨在深入探討RNN與CNN
    的頭像 發(fā)表于 07-03 15:59 ?209次閱讀

    什么是自然語言處理 (NLP)

    自然語言處理(Natural Language Processing, NLP)是人工智能領(lǐng)域中的一個重要分支,它專注于構(gòu)建能夠理解和生成人類語言的計算機系統(tǒng)。NLP的目標(biāo)是使計算機能夠像人類一樣
    的頭像 發(fā)表于 07-02 18:16 ?586次閱讀

    直流電機的輸出功率與運行速度之間的關(guān)系到底是怎樣的?

    想請教各位高手兩個問題: 1、直流電機的輸出功率與運行速度之間的關(guān)系到底是怎樣的, 最好能寫出公式 2、我這里的直流電機是通過6RA70調(diào)速的, 是否能通過降低電機的運行速度來控制電機的輸出功率,從而節(jié)約生產(chǎn)用電呢??
    發(fā)表于 12-26 06:55

    TVS管與穩(wěn)壓二極管,區(qū)別到底在哪里!

    TVS管與穩(wěn)壓二極管,區(qū)別到底在哪里!
    的頭像 發(fā)表于 12-05 14:49 ?693次閱讀
    TVS管與穩(wěn)壓二極管,區(qū)別<b class='flag-5'>到底在</b>哪里!

    為什么不能直接使用從PLC讀取到的模擬量信號?

    為什么不能直接使用從PLC讀取到的模擬量信號? PLC(可編程邏輯控制器)被廣泛用于實現(xiàn)自動化控制,可以讀取各種現(xiàn)場設(shè)備的模擬量信號。模擬量信號是實時反映被測量參數(shù)(如溫度、壓力、流量等)數(shù)值的信號
    的頭像 發(fā)表于 10-23 09:30 ?831次閱讀

    寄生參數(shù)抽取只會StarRC不會QRC?

    寄生參數(shù)抽取 只會StarRC 不會QRC?本章節(jié)講解下QRC抽取寄生參數(shù)。
    的頭像 發(fā)表于 10-11 16:01 ?3213次閱讀
    寄生參數(shù)<b class='flag-5'>抽取</b>只會StarRC不會QRC?

    51單片機串口通信方式1到底和計數(shù)器T1有什么關(guān)系?

    單片機串口通信的問題 我就想問串口通信方式1 到底和計數(shù)器T1有什么關(guān)系? 波特率的計算重為什么要用到T1 波特率在程序里面到底是怎么體現(xiàn)的。 看了半天PPT都看不懂
    發(fā)表于 10-08 08:31