0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

視覺信號輔助的自然語言文法學習

智能感知與物聯(lián)網(wǎng)技術研究所 ? 來源:通信信號處理研究所 ? 作者:通信信號處理研究 ? 2021-01-05 14:14 ? 次閱讀

長久以來,自然語言的文法學習(Grammar Learning)只考慮純文本輸入數(shù)據(jù)。我們試圖探究視覺信號(Visual Groundings),比如圖像,對自然語言文法學習是否有幫助。為此,我們提出了視覺信號輔助下的概率文法的通用學習框架。 該框架依賴于概率文法模型(Probabilistic Context-Free Grammars),具有端到端學習、完全可微的優(yōu)點。其次,針對視覺輔助學習中視覺信號不足的問題。我們提出在語言模型(Language Modeling)上對概率文法模型進行額外優(yōu)化。我們通過實驗驗證視覺信號以及語言模型的優(yōu)化目標有助于概率文法學習。 論文一作趙彥鵬:愛丁堡大學語言、認知和計算研究所博士生,導師是Ivan Titov和Mirella Lapata教授。他的研究興趣是結構預測和隱變量模型?,F(xiàn)在主要關注語言結構和圖像結構的學習,以及二者之間的聯(lián)系。 1

背景

本次分享內(nèi)容是,用視覺信號來輔助概率文法學習的一個通用學習框架。我們關注的問題是,視覺信號能否幫助我們來推理出自然語言的句法結構? 接下來我將從以下幾個部分展開。 首先介紹視覺信號輔助下的概率文法學習的一些背景知識和現(xiàn)有的一些工作。 然后介紹本文提出的Visually Grounded Compound PCFGs (VC-PCFGs)。 最后實驗驗證VC-PCFGs的有效性。 論文:《Visually Grounded Compound PCFGs》

首先了解問題定義:給定一張圖片以及它的自然語言描述,比如這里有一張鴿子的圖片,它的語言描述是a white pigeon sniffs flowers,我們的目標是通過圖片和文字兩個輸入,得到對應句子的句法結構,也就是右邊的圖。句法結構由不同的詞組嵌套而成,每個詞組可能有不同的類型,它可以是一個名詞詞組或者是一個動詞的組。在學習過程中,這種詞組的類別信息依賴于文法模型的選擇,但是評測的時候一般會忽略。 為什么視覺信號可以幫助文法結構的學習?這依賴于如下觀測:給定一個句子,如果相鄰的兩個詞組,比如white和pigeon,對應/關聯(lián)于圖片中一個相同的區(qū)域,那么就有理由相信它們更有可能形成一個大的詞組,進而把它們合并起來。接下來的問題是如何表示這種相關性信息?我們的想法是通過相似度來量化相關性。

dd1e71a6-4e9c-11eb-8b86-12bb97331649.png

如何去學習相似度?之前的模型應用對比學習的方式(Contrastive Learning)。首先給定一張圖片以及句子,然后通過文法模型,得到句子的句法結構的表示。剛才已經(jīng)提到句法結構對應的就是一些嵌套的詞組,我們可以把這些詞組提取出來,和相應的圖片組成詞組圖片對,稱之為正樣本。 然后固定一個詞組,從數(shù)據(jù)集里面隨機采樣一些圖片。并將采樣得到的圖片和當前固定的詞組同樣組成新的詞組圖片對,作為負樣本。對比學習的優(yōu)化目標就是使正樣本的得分比負樣本的得分高。類似的,我們也可以固定圖片,從其他句子里面隨機的采樣一些詞組,和當前圖片組合構成負樣本。這樣就完整定義了一個詞組圖片對的損失函數(shù)。 因為一個句子可以包含多個不同的詞組,那么在所有的詞組圖片對上加和,就可以得到一個句子圖片對的損失函數(shù)。需要注意的是這里提到的這些詞組是來自于一個句法結構,這個句法結構是從一個文法模型里面采樣得到的。 我們已經(jīng)能夠表示和學習這種相似度,接下來如何從相似度學習文法模型?

ddd7bb70-4e9c-11eb-8b86-12bb97331649.png

首先了解一下之前的工作,其選擇了一個貪心文法模型。所謂貪心就是每次它只會選擇最有可能合并到一起的兩個詞組,進行合并。其次,貪心意味著它只能去采樣,不能夠在有限時間內(nèi)枚舉所有可能的句法結構,所以它學習就依賴于強化學習的方法。直觀理解是,如果當前合并起來的兩個詞組和給定的圖像相似度很高,那么有理由相信它們更有可能被合并。我們應用之前定義的詞組圖片對之間的相似度,作為一個reward,強化合并操作。 雖然這樣一個模型比較直觀,但是還有下列這些缺陷,首先強化學習依賴于采樣,所以在優(yōu)化過程中,即評估梯度的時候會有很大的噪聲。

dcdd9e60-4e9c-11eb-8b86-12bb97331649.png

其次對于視覺信號輔助下的自然語言文法學習,有一個本質(zhì)的問題,即有些句法結構的信息在相應的圖片里面是找不到支撐信息的。比如這里稍微改變一下這個句子, a white pigeon is sitting in the grass peacefully。我們很難去找到sitting這樣一個動詞以及peacefully這樣一個副詞在這個圖片里面所對應的視覺信號是什么。觀察之前的文章作者匯報的一些結果,我們發(fā)現(xiàn)他們的模型在名詞詞組,即NPs,相對于在動詞VPs上的結果要好很多。為了緩解這個問題,他們不得不借助于語言特定的先驗信息。 2

我們的模型:VC-PCFGs

那么我們是如何解決這些問題的呢?首先,對于強化學習帶來的梯度評估中的噪聲問題。我們提出把貪心文法模型替換為概率文法模型,即PCFGs。替換之后我們可以將采樣操作去掉,同時優(yōu)化過程是完全可微的。我們稱之為,Visually Grounded Compound PCFGs。至于compound這個名詞的解釋稍后會提到。 其次是視覺信號不充分的問題。對于一個概率文法模型,只給定純文本,而沒有視覺信號的情況下,我們可以通過優(yōu)化語言模型的目標函數(shù)來學習概率文法模型,所以我們提出在語言模型目標函數(shù)上對概率文法模型進行優(yōu)化。 也就是說我們的模型包含兩部分,首先是引入視覺信號的概率文法模型的學習,其次在語言模型目標上來優(yōu)化概率文法模型。值得注意的是,這兩個過程都是完全可微的。接下來我們詳述這兩部分。

decbff28-4e9c-11eb-8b86-12bb97331649.png

首先回顧視覺信號輔助的文法模型學習中的一個重要的損失函數(shù),在之前的工作中,給定一個文法模型,即parser,采樣得到一個句法結構,通過枚舉這個句法結構所定義的所有詞組,之后在詞組圖片對上把它們的loss加和,得到一個句子圖片對上的loss。我們的目標是把這樣一個采樣過程去掉,也就意味著必須想辦法計算句法結構分布下的損失函數(shù)的期望值。

dfe2f736-4e9c-11eb-8b86-12bb97331649.png

期望可以寫成加和的形式。給定一個句子的話,這個句法結構空間是指數(shù)級別的,我們不可能枚舉所有句法結構。但是我們可以把這個式子中的兩個加法操作交換順序。第一個加法操作是枚舉所有的句法結構,第二個加法是要枚舉句法結構中所有的詞組。交換順序之后做一些簡單的推導,就可以得到最右邊的等式。這個等式意味著只需要枚舉給定句子的所有的詞組,這是很容易做到的,因為其所有的詞組數(shù)目也就N平方級別。 接下來問題轉(zhuǎn)換成如何來評估條件概率?即給定一個句子,其中一個詞組的條件概率是什么?這就是通常所說的后驗評估的問題。其次,還需要得到這個詞組Span c的表示。我們需要用它和圖像做一個相似度的計算。最終的問題可以劃分成兩個部分:后驗評估和Span的表示。

e002856a-4e9c-11eb-8b86-12bb97331649.png

首先第一個部分,后驗評估。我們選擇了一個概率文法模型,PCFG parser。因為用這樣一個概率文法模型的話,可以通過動態(tài)規(guī)劃的方法方便地計算后驗概率。然后通過計算句法樹分布下的損失函數(shù)期望值,得到去除采樣過程的損失函數(shù)。同時它的優(yōu)化是完全可微的。其次,因為概率文法模型的優(yōu)化本身可以不依賴于視覺信號,所以我們可以直接去優(yōu)化它的語言模型上的目標函數(shù),這個過程同樣是完全可微的,同時緩解了視覺信號不充分的問題。 對于概率文法模型,我們選擇了當前最好的一個概論文法模型,即Compound PCFGs。需要指出的就是Compound PCFGs只是PCFGs的一個擴展,所以之前提到的關于PCFGs的所有的優(yōu)點它都是具備的。這樣便得到我們的完整模型,即Visually Grounded Compound PCFGs。

e06bb904-4e9c-11eb-8b86-12bb97331649.png

接下來來看第二個模塊。第二個模塊是給定一個句子如何來表示它的詞組。我們這里選擇了雙向的LSTM模型。對于一個句子中所有不同長度的詞組,我們在詞組級別上做編碼,得到詞組的向量化表示。這樣一個模型能夠保證當前詞組的表示,不會用到詞組之外的信息。通過一些代碼實現(xiàn)上的技巧,我們可以在線性時間復雜度內(nèi)得到所有詞組的表示。 3

結論驗證

最后是實驗部分。

e0b01dba-4e9c-11eb-8b86-12bb97331649.png

實驗部分使用了MSCOCO數(shù)據(jù)集,每個圖片對應有一個自然語言的描述。由于數(shù)據(jù)集中的自然語言描述沒有真實的句法結構標注,為了評測,我們使用了當前最好的一個有監(jiān)督的文法模型,得到自然語言描述的句法結構。對于圖像的編碼,我們沿用之前工作的方法,對每個模型用預練好的,ResNet-101,把每個圖片編碼成一個向量的表示。

e0fb6734-4e9c-11eb-8b86-12bb97331649.png

評測中,我們在每一種設置下重復運行模型4次并取平均,每次使用了不同的隨機數(shù)種子。評測指標使用句子級別的F1評測。模型之間的對比,這里主要有三組模型: 1.第一組是很簡單的對比模型,比如Left Branching, Right Branching, Random Trees。 2.第二組是之前模型,即VG-NSL,我們對比它在使用和不使用語言特定先驗下的結果。 3.第三組是我們的模型,因為這里主要評測兩個模塊: a)僅應用語言模型的目標函數(shù),對應Compound PCFGs(C-PCFGs)。 b)只應用視覺信號,也就第二個without language mode objective(w/o LM)。 最后是我們完整的模型VC-PCFG,既用語言模型的目標函數(shù),又用視覺信號信息。

e18d73b8-4e9c-11eb-8b86-12bb97331649.png

接下來看一下整體結果。首先是Right-branching模型表現(xiàn)強勢,只有Compound PCFG以及VC-PCFG,遠遠的超過了它,其他模型都比這個簡單的模型表現(xiàn)要差。

e297751a-4e9c-11eb-8b86-12bb97331649.png

這里對比C-PCFG和VC-PCFG。模型如果額外使用視覺信號的話,可以帶來接近6%的提升。

e2ef4394-4e9c-11eb-8b86-12bb97331649.png

這里對比只使用視覺信號的模型(w/o LM)與加入語言模型目標函數(shù)的完整模型(VC-PCFG),我們可以看出語言模型目標函數(shù)帶來將近9%的一個提升。

e373dd7a-4e9c-11eb-8b86-12bb97331649.png

我們想知道這些模型提升主要來自于哪一種類型的詞組?我們這里選擇了測試集里面四個頻率比較高的詞組類型。首先第一個是名詞詞組,然后第二個是動詞詞組,第三個是介詞詞組,第四個是連詞詞組。因為模型在介詞和連詞上的性能和在動詞詞組上的性能比較類似,接下來我們只在名詞詞組和動詞詞組上做比較。

e41331cc-4e9c-11eb-8b86-12bb97331649.png

首先先看一下之前的模型VG-NSL,這里重新驗證了作者的實驗結果。VG-NSL在NP上的性能超過VP上的性能大于35%。

e42a38b8-4e9c-11eb-8b86-12bb97331649.png

這里顯示的是我們的完整模型,VC-PCFG對應的是紅色柱狀圖??梢钥闯鱿鄬τ谄渌P?,它的效果雖然不是最好的,但是它整體來說是較好的。然后在VP上,相對于之前的VG-NSL,我們的模型比它高出了55%。

e494638c-4e9c-11eb-8b86-12bb97331649.png

接下來驗證視覺信號的有效性。沒有用視覺信號的是黃色柱狀圖,使用了視覺信號的是紅色柱狀圖。在NP上,使用視覺信號可以帶來將近11%的一個提升,也就是說視覺信號對NP是有幫助的。

這里驗證語言模型的目標函數(shù)的有效性。同樣我們發(fā)現(xiàn)語言模型目標函數(shù)也是在NP上帶來一個很大的提升,提升了大概19%。

e52f2ba6-4e9c-11eb-8b86-12bb97331649.png

最后我們從另外一個角度來分析模型。即這些模型在不同長度的詞組上的效果如何。這張圖首先可以看有一個明顯的差別:上面兩個對應的是C-PCFG以及VC-PCFG,這兩個模型明顯是要優(yōu)于之前的VG-NSL。 具體來說的話,當詞組的長度大于4的時候,這兩個模型始終是優(yōu)于之前的VG-NSL,即便之前的VG-NSL加了一個語言特定的先驗知識。

e5722bb8-4e9c-11eb-8b86-12bb97331649.png

這里對比視覺信號是否有幫助。藍色是是我們完整的模型,橙色的是沒有加入視覺信號的模型。我們發(fā)現(xiàn)當詞組的長度小于5的時候,藍色對應的模型,即使用了視覺信號模型是要顯著優(yōu)于不用視覺信號的模型,所以我們結論是視覺信號對于短的一些詞組是有幫助的。然而我們發(fā)現(xiàn)這些短詞組占了整個數(shù)據(jù)集所有詞組大概75%,而在75%里面又有60%是名詞詞組,所以我們可以說視覺信號對于文法學習的幫助主要體現(xiàn)在名詞詞組上。 4

結論

我們提出了VC-PCFGs。它應用Compound-PCFGs作為文法模型,是一個端到端可微,在視覺信號輔助下的文法學習通用框架。 VC-PCFGs允許我們額外優(yōu)化一個語言模型的目標函數(shù),進而緩解視覺信號不充分的問題。 我們實驗驗證了視覺信號以及語言模型的優(yōu)化目標函數(shù)對于文法學習都有幫助。

原文標題:EMNLP 2020最佳論文榮譽提名:視覺信號輔助的自然語言文法學習

文章出處:【微信公眾號:通信信號處理研究所】歡迎添加關注!文章轉(zhuǎn)載請注明出處。

責任編輯:haq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 信號
    +關注

    關注

    11

    文章

    2741

    瀏覽量

    76178
  • 自然語言
    +關注

    關注

    1

    文章

    279

    瀏覽量

    13295

原文標題:EMNLP 2020最佳論文榮譽提名:視覺信號輔助的自然語言文法學習

文章出處:【微信號:tyutcsplab,微信公眾號:智能感知與物聯(lián)網(wǎng)技術研究所】歡迎添加關注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關推薦

    圖像識別技術包括自然語言處理嗎

    計算機視覺技術對圖像進行處理、分析和理解,從而實現(xiàn)對圖像中的目標、場景、行為等信息的識別和理解。圖像識別技術包括圖像預處理、特征提取、分類器設計、模型訓練等多個環(huán)節(jié)。 1.2 自然語言處理的定義 自然語言處理(Natural L
    的頭像 發(fā)表于 07-16 10:54 ?394次閱讀

    計算機視覺自然語言處理的區(qū)別

    計算機視覺(Computer Vision,簡稱CV)與自然語言處理(Natural Language Processing,簡稱NLP)作為人工智能(Artificial Intelligence
    的頭像 發(fā)表于 07-10 18:25 ?784次閱讀

    nlp自然語言處理模型有哪些

    自然語言處理(Natural Language Processing,NLP)是計算機科學和人工智能領域的一個重要分支,旨在使計算機能夠理解、解釋和生成人類語言。以下是對NLP領域一些模型的介紹
    的頭像 發(fā)表于 07-05 09:57 ?415次閱讀

    用于自然語言處理的神經(jīng)網(wǎng)絡有哪些

    自然語言處理(Natural Language Processing, NLP)是人工智能領域的一個重要分支,旨在讓計算機能夠理解和處理人類語言。隨著深度學習技術的飛速發(fā)展,神經(jīng)網(wǎng)絡模型在NLP領域
    的頭像 發(fā)表于 07-03 16:17 ?336次閱讀

    自然語言處理技術有哪些

    自然語言處理(Natural Language Processing,簡稱NLP)是人工智能領域的一個分支,它致力于使計算機能夠理解、解釋和生成人類語言自然語言處理技術的發(fā)展已經(jīng)取得了顯著的進展
    的頭像 發(fā)表于 07-03 14:30 ?600次閱讀

    自然語言處理模式的優(yōu)點

    自然語言處理(Natural Language Processing,簡稱NLP)是人工智能領域的一個重要分支,它致力于使計算機能夠理解、生成和處理人類語言。隨著技術的發(fā)展,自然語言處理在各個領域
    的頭像 發(fā)表于 07-03 14:24 ?407次閱讀

    自然語言處理技術的核心是什么

    自然語言處理(Natural Language Processing,簡稱NLP)是人工智能領域的一個重要分支,其核心目標是使計算機能夠理解、生成和處理人類語言。NLP技術的發(fā)展已經(jīng)取得了顯著的進展
    的頭像 發(fā)表于 07-03 14:20 ?340次閱讀

    自然語言處理是什么技術的一種應用

    自然語言處理(Natural Language Processing,簡稱NLP)是人工智能和語言學領域的一個分支,它涉及到使用計算機技術來處理、分析和生成自然語言文本。自然語言處理技
    的頭像 發(fā)表于 07-03 14:18 ?310次閱讀

    自然語言處理包括哪些內(nèi)容

    自然語言處理(Natural Language Processing,簡稱NLP)是人工智能領域的一個重要分支,它涉及到計算機與人類語言之間的交互。NLP的目標是讓計算機能夠理解、生成和處理人類語言
    的頭像 發(fā)表于 07-03 14:15 ?517次閱讀

    自然語言列舉法描述法各自的特點

    自然語言處理(Natural Language Processing,簡稱NLP)是人工智能領域的一個重要分支,它涉及到計算機與人類語言之間的交互。自然語言處理技術使得計算機能夠理解、生成和處理
    的頭像 發(fā)表于 07-03 14:13 ?673次閱讀

    自然語言處理屬于人工智能的哪個領域

    自然語言處理(Natural Language Processing,簡稱NLP)是人工智能(Artificial Intelligence,簡稱AI)領域的一個重要分支。它涉及到計算機與人類語言
    的頭像 發(fā)表于 07-03 14:09 ?692次閱讀

    什么是自然語言處理 (NLP)

    自然語言處理(Natural Language Processing, NLP)是人工智能領域中的一個重要分支,它專注于構建能夠理解和生成人類語言的計算機系統(tǒng)。NLP的目標是使計算機能夠像人類一樣
    的頭像 發(fā)表于 07-02 18:16 ?586次閱讀

    自然語言處理技術的原理的應用

    自然語言處理(Natural Language Processing, NLP)作為人工智能(AI)領域的一個重要分支,旨在使計算機能夠理解和處理人類自然語言。隨著互聯(lián)網(wǎng)的普及和大數(shù)據(jù)技術的發(fā)展
    的頭像 發(fā)表于 07-02 12:50 ?239次閱讀

    神經(jīng)網(wǎng)絡在自然語言處理中的應用

    自然語言處理(NLP)是人工智能領域中的一個重要分支,它研究的是如何使計算機能夠理解和生成人類自然語言。隨著人工智能技術的飛速發(fā)展,神經(jīng)網(wǎng)絡在自然語言處理中的應用逐漸展現(xiàn)出其強大的潛力和優(yōu)勢。本文
    的頭像 發(fā)表于 07-01 14:09 ?285次閱讀

    一種基于自然語言的軌跡修正方法

    本研究提出了ExTraCT框架,利用自然語言進行軌跡校正。該框架結合了大型語言模型(LLMs)用于自然語言理解和軌跡變形函數(shù)。ExTraCT能夠根據(jù)場景在線生成軌跡修改特征及其自然語言
    的頭像 發(fā)表于 01-19 10:45 ?335次閱讀
    一種基于<b class='flag-5'>自然語言</b>的軌跡修正方法