0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

深蘭在自然語言處理領域歐洲頂會上取得好成績

電子工程師 ? 來源:DeepBlue深蘭科技 ? 作者:DeepBlue深蘭科技 ? 2021-04-23 11:28 ? 次閱讀

2021年4月19-23日,EACL2021因疫情影響于線上正式召開,這是計算語言學和自然語言處理領域的重要國際會議,在Google Scholar計算語言學刊物指標中排名第七。深蘭科技DeepBlueAI團隊參加了Shared Task on Sarcasm and Sentiment Detection in Arabic 比賽,并在其兩個子任務諷刺檢測和情感識別中,分別獲得了第二名和第三名的好成績,在深蘭榮譽榜上再添新篇。

29afae82-a39c-11eb-aece-12bb97331649.jpg

29afae82-a39c-11eb-aece-12bb97331649.jpg

獲獎技術方案分享

任務介紹

諷刺檢測要求識別一段文字中是否包含諷刺的內(nèi)容,諷刺是當前情感分析系統(tǒng)的主要挑戰(zhàn)之一,因為具有諷刺性的句子通常用積極的表達方式去表示消極的情感。文本所表達的情感以及作者真正想表達的情感之間存在不同,這種情況給情感分析系統(tǒng)帶來了巨大的挑戰(zhàn)。

諷刺檢測、情感識別在其他語言中引起了很大的關注,但是在阿拉伯語上則沒有太多進展,該任務則是針對阿拉伯語,針對給定的一個推特文本,判斷是積極、消極或者中立情感,以及是否具有諷刺性。

數(shù)據(jù)分析

任務數(shù)據(jù)集名字為ArSarcasm-v2[1],數(shù)據(jù)包含以下幾個字段,tweet, sarcasm, sentiment, dialect,tweet代表推特文本,sarcasm為諷刺檢測的標簽,sentiment為情感分類的標簽,dialect表示當前文本確切屬于阿拉伯語中的哪個方言。

2a040f40-a39c-11eb-aece-12bb97331649.png

數(shù)據(jù)集統(tǒng)計如上圖所示,Arsarcasm-V2 共有12548條訓練文本,其中MSA占比達到了68.2%,Maghrebi占比較少,僅有42條。此外我們還分析了具有諷刺文本中的情感分布情況,占比如下圖所示??梢钥闯鲋S刺文本中89%具有消極情感,只有3%具有正面情感,可見諷刺一般情況下傳遞消極的信息

2a1afd68-a39c-11eb-aece-12bb97331649.png

模型

模型采用當前比較流行的預訓練模型,因為語言為阿拉伯語,我們采用了專門針對阿拉伯語的預訓練模型bert-large-arabertv02[2],以及多語言預訓練模型xlm-roberta-large[3]。其中模型結構如下,選取模型多層[CLS]位置的輸出進行加權平均得到[CLS]位置向量,然后經(jīng)過全連接層,之后經(jīng)過Multi-sample dropout[4]得到損失。對于諷刺檢測為二分類,我們采用Binary Cross Entropy 損失函數(shù),對于情感識別為三分類,我們采用Cross Entropy損失函數(shù)。

2a3a4db2-a39c-11eb-aece-12bb97331649.png

Multi-sample dropout 是dropout的一種變種,傳統(tǒng) dropout 在每輪訓練時會從輸入中隨機選擇一組樣本(稱之為 dropout 樣本),而 multi-sample dropout 會創(chuàng)建多個 dropout 樣本,然后平均所有樣本的損失,從而得到最終的損失,multi-sample dropout 共享中間的全連接層權重。通過綜合 M 個 dropout 樣本的損失來更新網(wǎng)絡參數(shù),使得最終損失比任何一個 dropout 樣本的損失都低。這樣做的效果類似于對一個 minibatch 中的每個輸入重復訓練 M 次。因此,它大大減少訓練迭代次數(shù),從而大幅加快訓練速度。因為大部分運算發(fā)生在 dropout 層之前的BERT層中,Multi-sample dropout 并不會重復這些計算,所以對每次迭代的計算成本影響不大。實驗表明,multi-sample dropout 還可以降低訓練集和驗證集的錯誤率和損失。

訓練策略

任務自適應預訓練(TAPT)[5],在當前和任務相關的數(shù)據(jù)集上進行掩碼語言模型(MLM)訓練,提升預訓練模型在當前數(shù)據(jù)集上的性能。

對抗訓練是一種引入噪聲的訓練方式,可以對參數(shù)進行正則化,從而提升模型的魯棒性和泛化能力。我們采用FGM (Fast Gradient Method)[6],通過在嵌入層加入擾動,從而獲得更穩(wěn)定的單詞表示形式和更通用的模型,以此提升模型效果。

知識蒸餾[7]由Hinton在2015年提出,主要應用在模型壓縮上,通過知識蒸餾用大模型所學習到的有用信息來訓練小模型,在保證性能差不多的情況下進行模型壓縮。我們將利用模型壓縮的思想,采用模型融合的方案,融合多個不同的模型作為teacher模型,將要訓練的作為student模型。

假設:采用arabertv模型,F(xiàn)1得分為70,采用不同參數(shù)、不同隨機數(shù),訓練多個arabertv 模型融合后F1可以達到71;在采用xlm-roberta模型,訓練多個模型后與arabertv模型進行融合得到最終的F1為72。基于最后融合的多個模型,采用交叉驗證的方式給訓練集打上 soft label,此時的soft label已經(jīng)包含多個模型學到的知識。隨后再去訓練arabertv模型,模型同時學習soft label以及本來hard label,學習soft label采用MSE損失函數(shù),學習hard label依舊采用交叉熵損失,通過這種方式訓練出來的arabertv模型的F1可以達到71點多,最后將蒸餾學出來的模型再與原來的模型融合,得到最后的結果。

模型融合

為了更好地利用數(shù)據(jù),我們采用7折交叉驗證,針對每一折我們使用了兩種預訓練模型,又通過改變不同的參數(shù)隨機數(shù)種子以及不同的訓練策略訓練了多個模型,之后對訓練集和測試集進行預測。為了更好地融合模型,我們針對諷刺檢測采用了線性回歸模型進行融合,針對情感識別模型,采用支持向量機SVM進行融合。

實驗結果

評價標準,針對諷刺檢測,只評價諷刺類的F1,針對情感分類則對各個類的F1求平均,為了更好地評估模型的好壞,我們采用7折交叉驗證的形式,以下結果是交叉驗證結果的平均。

從下表中可以看出,無論是諷刺檢測任務還是情感分類任務都是XLM-Roberta 模型相對好一些,經(jīng)過TAPT和知識蒸餾后效果都有著顯著提升。對于諷刺檢測因為不同模型之間分數(shù)相差比較大,直接求平均效果不行,而采用線性回歸后則達到了一個不錯的水平,由于諷刺檢測類別不平衡,我們將閾值調(diào)整為0.41,即大于0.41為1類。同樣在情感分類任務中,由于多個模型之間的性能相差較大直接求平均也會造成性能的下降,我們最終采用SVM進行模型融合。

2a5b6a6a-a39c-11eb-aece-12bb97331649.png

原文標題:賽道 | 深蘭載譽自然語言處理領域歐洲頂會EACL2021

文章出處:【微信公眾號:DeepBlue深蘭科技】歡迎添加關注!文章轉載請注明出處。

責任編輯:haq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關注

    關注

    87

    文章

    28877

    瀏覽量

    266240
  • 自然語言
    +關注

    關注

    1

    文章

    279

    瀏覽量

    13295

原文標題:賽道 | 深蘭載譽自然語言處理領域歐洲頂會EACL2021

文章出處:【微信號:kmdian,微信公眾號:深蘭科技】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    圖像識別技術包括自然語言處理

    圖像識別技術與自然語言處理是人工智能領域的兩個重要分支,它們很多方面有著密切的聯(lián)系,但也存在一些區(qū)別。 一、圖像識別技術與自然語言
    的頭像 發(fā)表于 07-16 10:54 ?394次閱讀

    自然語言處理前饋網(wǎng)絡綜述

    多層感知器(MLP)和卷積神經(jīng)網(wǎng)絡(CNN),在這一領域扮演著關鍵角色。以下是對自然語言處理前饋網(wǎng)絡的詳細闡述,包括其基本原理、NLP中的應用、優(yōu)勢、挑戰(zhàn)以及未來發(fā)展方向。
    的頭像 發(fā)表于 07-12 10:10 ?172次閱讀

    Transformer架構自然語言處理中的應用

    隨著人工智能技術的飛速發(fā)展,自然語言處理(NLP)領域取得了顯著的進步。其中,Transformer架構的提出,為NLP領域帶來了革命性的變
    的頭像 發(fā)表于 07-09 11:42 ?530次閱讀

    nlp自然語言處理的應用有哪些

    自然語言處理(Natural Language Processing,簡稱NLP)是人工智能領域的一個分支,它致力于使計算機能夠理解和生成自然語言。隨著技術的發(fā)展,NLP已經(jīng)
    的頭像 發(fā)表于 07-05 09:55 ?1975次閱讀

    使用Python進行自然語言處理

    探討使用Python進行自然語言處理(NLP)的廣闊領域時,我們首先需要理解NLP的基本概念、其重要性、PythonNLP中的優(yōu)勢,以及
    的頭像 發(fā)表于 07-04 14:40 ?275次閱讀

    用于自然語言處理的神經(jīng)網(wǎng)絡有哪些

    自然語言處理(Natural Language Processing, NLP)是人工智能領域的一個重要分支,旨在讓計算機能夠理解和處理人類語言
    的頭像 發(fā)表于 07-03 16:17 ?340次閱讀

    自然語言處理技術有哪些

    自然語言處理(Natural Language Processing,簡稱NLP)是人工智能領域的一個分支,它致力于使計算機能夠理解、解釋和生成人類語言。
    的頭像 發(fā)表于 07-03 14:30 ?601次閱讀

    自然語言處理模式的優(yōu)點

    自然語言處理(Natural Language Processing,簡稱NLP)是人工智能領域的一個重要分支,它致力于使計算機能夠理解、生成和處理人類
    的頭像 發(fā)表于 07-03 14:24 ?408次閱讀

    自然語言處理技術的核心是什么

    自然語言處理(Natural Language Processing,簡稱NLP)是人工智能領域的一個重要分支,其核心目標是使計算機能夠理解、生成和處理人類
    的頭像 發(fā)表于 07-03 14:20 ?340次閱讀

    自然語言處理是什么技術的一種應用

    自然語言處理(Natural Language Processing,簡稱NLP)是人工智能和語言領域的一個分支,它涉及到使用計算機技術來處理
    的頭像 發(fā)表于 07-03 14:18 ?310次閱讀

    自然語言處理包括哪些內(nèi)容

    自然語言處理(Natural Language Processing,簡稱NLP)是人工智能領域的一個重要分支,它涉及到計算機與人類語言之間的交互。NLP的目標是讓計算機能夠理解、生成
    的頭像 發(fā)表于 07-03 14:15 ?517次閱讀

    自然語言處理屬于人工智能的哪個領域

    之間的交互,旨在使計算機能夠理解、生成和處理自然語言自然語言處理:人工智能的皇冠上的明珠 引言 人工智能作為一門跨學科的研究領域,涵蓋了
    的頭像 發(fā)表于 07-03 14:09 ?695次閱讀

    什么是自然語言處理 (NLP)

    自然語言處理(Natural Language Processing, NLP)是人工智能領域中的一個重要分支,它專注于構建能夠理解和生成人類語言的計算機系統(tǒng)。NLP的目標是使計算機能
    的頭像 發(fā)表于 07-02 18:16 ?598次閱讀

    自然語言處理技術的原理的應用

    自然語言處理(Natural Language Processing, NLP)作為人工智能(AI)領域的一個重要分支,旨在使計算機能夠理解和處理人類
    的頭像 發(fā)表于 07-02 12:50 ?242次閱讀

    神經(jīng)網(wǎng)絡自然語言處理中的應用

    自然語言處理(NLP)是人工智能領域中的一個重要分支,它研究的是如何使計算機能夠理解和生成人類自然語言。隨著人工智能技術的飛速發(fā)展,神經(jīng)網(wǎng)絡
    的頭像 發(fā)表于 07-01 14:09 ?287次閱讀