0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

FS-NER 的關(guān)鍵挑戰(zhàn)

深度學(xué)習(xí)自然語言處理 ? 來源:深度學(xué)習(xí)自然語言處理 ? 作者:深度學(xué)習(xí)自然語言 ? 2022-08-15 09:42 ? 次閱讀

小樣本 NER 需要從很少的實例和外部資源中獲取有效信息。本文提出了一個自描述機制,可以通過使用全局概念集(universal concept set)描述實體類型(types)和提及(mentions)來有效利用實例和外部資源的知識。

具體來講,我們設(shè)計了自描述網(wǎng)絡(luò)SDNet),一個 Seq2Seq 的生成模型可以使用概念來全局地描述提及,自動將新的實體類型映射到概念中,然后對實體進行識別。SDNet 在一個大規(guī)模語料中預(yù)訓(xùn)練,在 8 個 benchmarks 上進行實驗,實驗結(jié)果表明,SDNet 取得了很有競爭力的效果,并且在 6 個 benchmarks 上達到了 SOTA。

Intro

小樣本 NER(FS-NER)的目標是通過很少的樣本來識別出屬于新實體類的實體提及。FS-NER 面臨兩個主要的挑戰(zhàn):

1. limited information challenge:少量樣本所包含的語義信息有限。

2. knowledge mismatch challenge:使用外部的知識直接與新任務(wù)進行匹配可能有各種偏差甚至產(chǎn)生沖突。

具體來說,在 Wikipedia,OntoNotes 和 WNUT17 中,“America” 的標注分別為 “geographic entity”、“GPE” 和 “l(fā)ocation”。因此,如何有效利用少量數(shù)據(jù)并且準確遷移外部知識是 FS-NER 的關(guān)鍵挑戰(zhàn)。

為此,作者提出了自描述機制,其主要思想是將所有的實體類型描述為同一個概念集,類型和概念之間的映射是可以建模和學(xué)習(xí)的,這種方式可以解決知識不匹配的問題。同時,因為這種映射是全局的,對于少量新實體類樣本來說,只需要將這部分數(shù)據(jù)用來構(gòu)建新實體類型和概念之間的映射,也解決了信息不足的問題。

7df9092e-1c2d-11ed-ba43-dac502259ad0.png

▲ 實體類型、提及和概念映射示例

基于以上想法,我們提出了一個自描述網(wǎng)絡(luò)——SDNet,是一個 Seq2Seq 的生成模型,可以全局的使用概念來描述提及,自動將新實體類型映射到概念集,并且能夠識別實體。

具體來講,為了獲取一個提及的語義,SDNet 生成一個全局的概念集作為描述。例如:生成 {capital,city} 對于句子“Dr。Kohl came to [Beijing].”。為了映射實體類型和概念,SDNet 將屬于同一實體類型的提及映射到這些提及所對應(yīng)的概念中。例如:對于 [Beijing] 和 [America] 兩個屬于 GPE 類型的提及,將 GPE 這一類型映射到 {country,capital,city}。

對于實體識別,SDNet 使用 concept-enriched 的前綴 prompt 的方式直接在一個句子中生成出所有的實體。例如:在 “France is beautiful.” 這句話中通過生成出 “France is GPE.” 來識別實體,構(gòu)建一個前綴 prompt“[EG] GPE:{country,capital,city}”。因為概念是全局的,所以我們可以在 SDNet上使用大規(guī)模語料庫預(yù)訓(xùn)練,并且可以很容易的使用 web 資源,具體來說,我們通過使用 wikipedia 錨詞到 wikidata items 之間的連接構(gòu)建了包含 56M 個句子,31K 個概念的數(shù)據(jù)集。

本文的主要貢獻總結(jié)如下:

1. 我們提出了自描述機制來解決 FS-NER 問題,可以有效解決信息限制和知識不匹配的挑戰(zhàn)通過使用一個全局的概念集描述實體類型和提及;

2. 我們提出 SDNet,一個可以全局的使用概念描述提及,自動映射新實體類型和概念并且識別實體的 Seq2Seq 生成模型;

3. 我們在一個大規(guī)模的公開數(shù)據(jù)集上預(yù)訓(xùn)練 SDNet,對 FS-NER 提供了全局信息并且對未來 NER 的研究有益。

Method

模型整體流程包含兩部分:

1. Mention describing:生成提及的概念描述;

2. Entity generation:生成屬于新實體類的提及。

模型結(jié)構(gòu)圖如下:

7e341118-1c2d-11ed-ba43-dac502259ad0.png

▲ 模型結(jié)構(gòu)

2.1 Self-describing Networks

SDNet 可以完成兩個生成任務(wù),就是上文提到的 mention describing 和 entity generation,分別使用了不同的提示 P 并且生成不同的輸出 Y。具體形式如下圖所示:

7e557dbc-1c2d-11ed-ba43-dac502259ad0.png

▲mention describing和entity generation示例

對于 mention describing,提示模板由一個標識 [MD] 和一個目標實體提及組成;對于 entity generation,提示模板由標識 [EG] 和一個新實體類型和其對應(yīng)的描述組成。上述兩個過程是一組對稱的過程:一個是給定實體提及,獲取其概念描述;另一個是識別包含特定概念的實體。

2.2 Entity Recognition via Entity Generation

具體來講,entity generation 的輸入提示為

7e6f94a4-1c2d-11ed-ba43-dac502259ad0.png

其中 t 是實體類型,l 是實體類型對應(yīng)的概念。SDNet 會生成如下形式的輸出:

7e82fac6-1c2d-11ed-ba43-dac502259ad0.png

這里就相當于獲取了每個實體對應(yīng)的實體類型:

7e9b4504-1c2d-11ed-ba43-dac502259ad0.png

可以看出,SDNet 可以實時進行控制,通過使用不同的 prompts。例如:給一個句子 “Harry Potter is written by J.K. Rowling.”,如果想要識別 person 類,提示模板采用 {[EG] person: {actor, writer}},如果想要識別 creative work 類,則模板采用 {[EG] creative work: {book, music}} 即可。

2.3 Type Description Construction via Mention Describing

Mention Describing

給定一個句子 X,包含新類的實體提及{e1, e2, ...},使用的提示模板為:

7eaca0c4-1c2d-11ed-ba43-dac502259ad0.png

SDNet 會產(chǎn)生如下形式的輸出:

7ebadc70-1c2d-11ed-ba43-dac502259ad0.png

這一步會生成每個實體提及的概念。

Type Description Construction

SDNet 會將屬于同一實體類型的提及生成的概念,融合成一個概念集合 C,將這個概念集合 C 作為類型 t 的描述。

7ed8e242-1c2d-11ed-ba43-dac502259ad0.png

Filtering Strategy

由于下游任務(wù)含有大量新的實體類型,SDNet 對于其中某些類型沒有足夠的知識來描述,如果強制進行生成會導(dǎo)致一些不準確的描述。本文提出一個過濾策略解決這個問題。具體來講,SDNet 會對那些不確定的樣本生成 other 這一描述。我們會計算生成 other 描述的概率,如果對于一個樣本生成的 other 超過 0.5,則會去除掉類型描述,在 P_EG 模板中直接使用類型。

Learning

接下來說明 SDNet 如何進行預(yù)訓(xùn)練和微調(diào)。

3.1 SDNet Pre-training

本文使用 wikipedia 和 wikidata 數(shù)據(jù)來構(gòu)建數(shù)據(jù)集。

Entity Mention Collection

對于 SDNet 的預(yù)訓(xùn)練,我們需要收集 三元組,其中 e 是實體提及,T 是實體類型,X 是句子。通過以下兩個步驟來構(gòu)建:

1. 首先,從 wikidata 中構(gòu)建實體字典。我們將 wikidata 中每個 item 作為實體并且使用 “instance of”、“subclass of” 和 “occupation” 三個屬性值作為其對應(yīng)的實體類型。我們使用所有的實體類型,除去那些實例少于 5 個的。對于那些類型名長度超過 3 個 token 的,采用其 head word 作為最終的實體類型來簡化。通過這種方式,我們收集了 31K 個類型;

2. 其次我們使用其在 wikipedia 中的錨文本和其條目頁面的前 3 個頻繁出現(xiàn)的名詞短語來收集每個實體的提及。然后對于每一個提及,通過將其連接到 wikidata 中 item 的類型來識別實體類型。如果 wikidata 的 item 沒有實體類型,則給其分配 other。對于每一個百科頁,將文本分割成句子,并且將沒有實體的句子過濾掉。最終我們構(gòu)建出了含有 56M 個實例的數(shù)據(jù)集。

Type Description Building

文本將上述獲取的實體類型作為概念,對于給定的一個實體類型,使用與其共同出現(xiàn)的實體類型作為其描述。舉例來說,Person 類可以描述為 {businessman, CEO, musician, pianist} 通過以下兩個實例 “Steve Jobs:{person, businessman, CEO}” 和 “Beethoven:{person, musician, pianist}”。通過這種方式生成每個實體類型的描述概念集。因為有些類型的概念集特別大,因此本文為每個實體隨機采樣不超過 10 個概念作為概念集合。

Pretraining via Mention Describing and Entity Generation

給定一個句子 X 以及它的提及-類型元組:

7efc8576-1c2d-11ed-ba43-dac502259ad0.png

我們從 E 中采樣一些目標提及 E' 輸入到模板 P_MD 中生成它的對應(yīng)概念。對于實體生成,從正類型和負類型中采樣類型集輸入到模板 P_EG 中生成提及對應(yīng)的實體類型。模型損失如下:

7f0aa246-1c2d-11ed-ba43-dac502259ad0.png

▲ 交叉熵損失

3.2 Entity Recognition Fine-tuning

微調(diào)階段給定一個樣本三元組 ,先通過 MD 過程生成每個類型的描述,然后使用這些描述通過 EG 過程生成提及對應(yīng)的實體類型。微調(diào)階段的損失為:

7f1d92de-1c2d-11ed-ba43-dac502259ad0.png

▲EG過程的損失

Experiments

4.1 主實驗

7f40407c-1c2d-11ed-ba43-dac502259ad0.png

▲ 主實驗,評價指標采用 micro-F1

實驗結(jié)果可以看出,在 6 個 benchmark 中 SDNet 達到了 SOTA。作者也分析了在 Res 這一 benchmark 上與 T5 表現(xiàn)接近的原因,因為 Res 與 wikipedia 數(shù)據(jù)有巨大的領(lǐng)域漂移,導(dǎo)致模型經(jīng)常生成 other。

4.2 樣本數(shù)的影響

7f5e3eec-1c2d-11ed-ba43-dac502259ad0.png

▲ 樣本數(shù)的影響

實驗結(jié)果可以看出,SDNet 在任何樣本數(shù)設(shè)置下都有更好的表現(xiàn)。作者認為,基于生成的模型要比基于分類的模型有更好的表現(xiàn),因為生成模型可以利用標簽的 utterance 更有效的獲取實體類型的語義。

4.3 消融實驗

7f7bf55e-1c2d-11ed-ba43-dac502259ad0.png

(1)w/o desp:在EG過程直接使用實體類型,而不加入全局的概念描述,例如:

7f8ba90e-1c2d-11ed-ba43-dac502259ad0.png

(2)w/o joint:將 MD 和 EG 過程分為兩個單獨的過程分開訓(xùn)練。

(3)w/o filter:不進行過濾策略。

4.4 零樣本實驗

7f9798a4-1c2d-11ed-ba43-dac502259ad0.png

4.4 EG模板的影響

7fbbd5ca-1c2d-11ed-ba43-dac502259ad0.png

總結(jié)

本文一大優(yōu)點是為 FS-NER 引用外部知識提供了一個新的思路,本文的預(yù)訓(xùn)練模型也可以直接做遷移。

不足之處在于在與 Wikipedia 之間存在巨大的領(lǐng)域漂移的情況下,模型會生成大量 other 從而嚴重影響效果。在維基百科中可能存在大量人名地名等常見實體,而在一些實際問題中,可能存在很多不常見的實體,模型可能很難對這些實體做到很好的描述。

審核編輯:彭靜
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 數(shù)據(jù)
    +關(guān)注

    關(guān)注

    8

    文章

    6715

    瀏覽量

    88311
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3032

    瀏覽量

    48360

原文標題:ACL2022 | 自描述網(wǎng)絡(luò)的小樣本命名實體識別

文章出處:【微信號:zenRRan,微信公眾號:深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    NER2401程序,手冊

    NER2401程序,手冊,可以實現(xiàn)無線通信
    發(fā)表于 05-30 15:15

    下一代超快I-V測試系統(tǒng)關(guān)鍵的技術(shù)挑戰(zhàn)有哪些?

    如何進行超快I-V測量?下一代超快I-V測試系統(tǒng)關(guān)鍵的技術(shù)挑戰(zhàn)有哪些?
    發(fā)表于 04-15 06:33

    功耗成為HPC和Networking的關(guān)鍵設(shè)計挑戰(zhàn)

    功耗成為HPC和Networking的關(guān)鍵設(shè)計挑戰(zhàn)
    發(fā)表于 05-21 06:32

    金帆牌FS30 FS35 FS40落地扇電路圖

    金帆牌FS30 FS35 FS40落地扇電路圖
    發(fā)表于 06-06 16:14 ?2152次閱讀
    金帆牌<b class='flag-5'>FS</b>30 <b class='flag-5'>FS</b>35 <b class='flag-5'>FS</b>40落地扇電路圖

    光學(xué)傳感器的系統(tǒng)NER模擬

    NER 即噪聲等效反射率。本文通過分析 光學(xué)傳感器 噪聲的形成機理,指出傳感器的系統(tǒng)噪聲很大程度上和入瞳處的輻射亮度有關(guān),并對噪聲等效反射率的進行了模擬研究。為遙感圖像的
    發(fā)表于 06-13 15:45 ?22次下載
    光學(xué)傳感器的系統(tǒng)<b class='flag-5'>NER</b>模擬

    一些NER的英文數(shù)據(jù)集推薦

    ://www.clips.uantwerpen.be/conll2002/ner/ ? ? 3???CoNLL-2003? CoNLL 2003是由新聞通訊社的文章以四種不同的語言(西班牙語、荷蘭語、英語和德語
    的頭像 發(fā)表于 12-26 09:11 ?3523次閱讀

    一種單獨適配于NER的數(shù)據(jù)增強方法

    ? 本文首先介紹傳統(tǒng)的數(shù)據(jù)增強在NER任務(wù)中的表現(xiàn),然后介紹一種單獨適配于NER的數(shù)據(jù)增強方法,這種方法生成的數(shù)據(jù)更具豐富性、數(shù)據(jù)質(zhì)量更高。 0 前言 在NLP中有哪些數(shù)據(jù)增強技術(shù)?這一定是當今
    的頭像 發(fā)表于 01-18 16:28 ?2956次閱讀

    如何解決NER覆蓋和不連續(xù)問題

    ://aclanthology.org/2021.acl-long.372.pdf 代碼:https://github.com/foxlf823/sodner 提取摘要 由于普通的NER問題被研究的透透的了,本文
    的頭像 發(fā)表于 09-08 10:48 ?2459次閱讀
    如何解決<b class='flag-5'>NER</b>覆蓋和不連續(xù)問題

    怎么構(gòu)建命名實體識別(NER)任務(wù)的標注數(shù)據(jù)

    用自己平臺的商品標題去請求一些開放 NER 的 api,比如阿里云、騰訊云、百度 ai 等,有些平臺的 api 是免費的,有些 api 每天可以調(diào)用一定次數(shù),可以白嫖,對于電商領(lǐng)域,阿里云的 NER 效果比其他家好一些。
    的頭像 發(fā)表于 07-26 14:28 ?3769次閱讀

    基于填表方式的NER方法

    現(xiàn)在很多基于填表方式的NER方法,在構(gòu)造表中元素的時候,一般用的都是由相應(yīng)span的head字和tail字的表征得到的,而本文在此基礎(chǔ)上加入了從span中所有字的表征中抽取出來的特征,下面介紹一下具體怎么搞。
    的頭像 發(fā)表于 08-11 11:47 ?1047次閱讀

    介紹兩個few-shot NER中的challenge

    此部分著重介紹了兩個few-shot NER中的challenge:limited information challenge和knowledge mismatch challenge。前者主要是指
    的頭像 發(fā)表于 08-24 10:01 ?765次閱讀

    Few-shot NER的三階段

    Few-shot NER的三階段:Train、Adapt、Recognize,即在source域訓(xùn)練,在target域的support上微調(diào),在target域的query上測試。
    的頭像 發(fā)表于 08-24 16:12 ?1280次閱讀

    如何簡單粗暴的提升NER效果?

    如果我們有一個訓(xùn)練數(shù)據(jù)集,比方說一個case:“海底撈的主要食物是火鍋”,在NER的任務(wù)中,標注成為“{海底撈^飯店}的主要食物是{火鍋^食物}”,其中海底撈的實體為飯店,而火鍋的為食物。
    的頭像 發(fā)表于 12-12 14:03 ?900次閱讀

    EMI電磁干擾:挑戰(zhàn)與機遇并存,如何應(yīng)對是關(guān)鍵

    深圳比創(chuàng)達EMC|EMI電磁干擾:挑戰(zhàn)與機遇并存,如何應(yīng)對是關(guān)鍵
    的頭像 發(fā)表于 04-11 10:24 ?385次閱讀
    EMI電磁干擾:<b class='flag-5'>挑戰(zhàn)</b>與機遇并存,如何應(yīng)對是<b class='flag-5'>關(guān)鍵</b>

    EMI電磁干擾行業(yè):行業(yè)發(fā)展的關(guān)鍵挑戰(zhàn)

    深圳比創(chuàng)達EMC|EMI電磁干擾行業(yè):行業(yè)發(fā)展的關(guān)鍵挑戰(zhàn)
    的頭像 發(fā)表于 05-28 10:55 ?299次閱讀
    EMI電磁干擾行業(yè):行業(yè)發(fā)展的<b class='flag-5'>關(guān)鍵</b>與<b class='flag-5'>挑戰(zhàn)</b>