0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于Transformer與覆蓋注意力機制建模的手寫數(shù)學(xué)公式識別

CVer ? 來源:CSIG文檔圖像分析與識別專 ? 作者: Wenqi Zhao, Liangca ? 2022-11-01 15:26 ? 次閱讀

一、研究背景

手寫數(shù)學(xué)公式識別是將包含數(shù)學(xué)表達式的圖像轉(zhuǎn)換為結(jié)構(gòu)表達式,例如LaTeX數(shù)學(xué)表達式或符號布局樹的過程。手寫數(shù)學(xué)表達式的識別已經(jīng)帶來了許多下游應(yīng)用,如在線教育、自動評分和公式圖像搜索。在在線教育場景下,手寫數(shù)學(xué)表達式的識別率對提高學(xué)習(xí)效率和教學(xué)質(zhì)量至關(guān)重要。 對比于傳統(tǒng)的文本符號識別(Optical Character Recognition, OCR),公式識別具有更大的挑戰(zhàn)性。公式識別不僅需要從圖像中識別不同書寫風(fēng)格的符號,還需要建模符號和上下文之間的關(guān)系。例如,在LaTeX中,模型需要生成“^”、“_”、“{”和“}”來描述二維圖像中符號之間的位置和層次關(guān)系。編碼器-解碼器架構(gòu)由于可以編碼器部分進行特征提取,在解碼器部分進行語言建模,而在手寫數(shù)學(xué)公式識別任務(wù)(Handwritten Mathematical Expression Recognition, HMER)中被廣泛使用。 雖然Transformer在自然語言處理領(lǐng)域已經(jīng)成為了基礎(chǔ)模型,但其在HMER任務(wù)上的性能相較于循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network, RNN)還不能令人滿意。作者觀察到現(xiàn)有的Transformer與RNN一樣會受到缺少覆蓋注意力機制的影響,即“過解析”——圖像的某些部分被不必要地多次解析,以及“欠解析”——有些區(qū)域未被解析。RNN解碼器使用覆蓋注意機制來緩解這一問題。然而,Transformer解碼器所采用的點積注意力沒有這樣的覆蓋機制,作者認為這是限制其性能的關(guān)鍵因素。 不同于RNN,Transformer中每一步的計算是相互獨立的。雖然這種特性提高了Transformer中的并行性,但也使得在Transformer解碼器中直接使用以前工作中的覆蓋機制變得困難。為了解決上述問題,作者提出了一種利用Transformer解碼器中覆蓋信息的新模型,稱為CoMER。受RNN中覆蓋機制的啟發(fā),作者希望Transformer將更多的注意力分配到尚未解析的區(qū)域。具體地說,作者提出了一種新穎的注意精煉模塊(Attention Refinement Module, ARM),它可以在不影響并行性的前提下,根據(jù)過去的對齊信息對注意權(quán)重進行精煉。同時為了充分利用來自不同層的過去對齊信息,作者提出了自覆蓋和交叉覆蓋,分別利用來自當前層和前一層的過去對齊信息。作者進一步證明,在HMER任務(wù)中,CoMER的性能優(yōu)于標準Transformer解碼器和RNN解碼器。

8250599c-5944-11ed-a3b6-dac502259ad0.png

圖1 本文提出的具有注意力精煉模塊的Transformer模型

二、方法原理簡述

CNN編碼器在編碼器部分,本文使用DenseNet作為編碼器。相較于ResNet,DenseNet在不同尺度特征圖上的密集連接能夠更好地反映出不同大小字符的尺度特征,有利于后續(xù)解碼不同位置大小字符的含義。為了使DenseNet輸出特征與解碼器模型尺寸對齊,作者在編碼器的末端增加了1 × 1的卷積層,得到輸出圖像特征

8272d60c-5944-11ed-a3b6-dac502259ad0.png。

位置編碼與RNN解碼器不同,由于Transformer解碼器的Token之間不具有空間位置關(guān)系,額外的位置信息是必要的。在論文中,作者與BTTR[1]一致,同時使用圖像位置編碼和字符位置編碼。 對于字符位置編碼,作者使用Transformer[2]中引入的1D位置編碼。給定編碼維數(shù)d,位置p,特征維索引i,則字符位置編碼向量

8283cb38-5944-11ed-a3b6-dac502259ad0.png

可表示為:

8298865e-5944-11ed-a3b6-dac502259ad0.png

圖像位置編碼采用與[1,3]相同的二維歸一化位置編碼。由于模型需要關(guān)注的是相對位置,所以首先要將位置坐標歸一化。給定二維坐標元組82a77696-5944-11ed-a3b6-dac502259ad0.png,編碼維數(shù)為d,通過一維位置的拼接計算二維圖像位置編碼

82b3a6a0-5944-11ed-a3b6-dac502259ad0.png。

82c3bb30-5944-11ed-a3b6-dac502259ad0.png

其中82d304dc-5944-11ed-a3b6-dac502259ad0.png82dd0806-5944-11ed-a3b6-dac502259ad0.png代表了輸入圖像特征的尺寸。注意力精煉模塊(ARM)如果在Transformer中直接采用RNN式的覆蓋注意力機制。那么將會產(chǎn)生一個具有82e85134-5944-11ed-a3b6-dac502259ad0.png空間復(fù)雜度的覆蓋矩陣82f64532-5944-11ed-a3b6-dac502259ad0.png,這樣的大小是難以接受的。問題的瓶頸在于覆蓋矩陣需要先與其他特征向量相加,再乘以向量8305bb20-5944-11ed-a3b6-dac502259ad0.png。如果我們可以先將覆蓋矩陣與831270b8-5944-11ed-a3b6-dac502259ad0.png相乘,再加上LuongAttention[4]的結(jié)果,空間復(fù)雜度將大大降低到82e85134-5944-11ed-a3b6-dac502259ad0.png。因此作者將注意力機制修改為:

832bf3c6-5944-11ed-a3b6-dac502259ad0.png

其中相似向量833be3ee-5944-11ed-a3b6-dac502259ad0.png可分為注意項和精煉項834f0078-5944-11ed-a3b6-dac502259ad0.png。需要注意的是,精煉項可以通過覆蓋函數(shù)直接由累積835a9da2-5944-11ed-a3b6-dac502259ad0.png向量生成,從而避免了具有為維數(shù)為8366b9de-5944-11ed-a3b6-dac502259ad0.png的中間項。作者將上式命名為注意力精煉框架。

8373561c-5944-11ed-a3b6-dac502259ad0.png

圖2 注意精煉模塊(ARM)的整體結(jié)構(gòu) 為了在Transformer中使用這一框架,作者提出了如圖2所示的注意精煉模塊(ARM)。可以將Transformer中的點積矩陣8386e8a8-5944-11ed-a3b6-dac502259ad0.png作為注意項,精煉項矩陣R需要從經(jīng)過Softmax后的注意權(quán)值A(chǔ)中計算出來。作者使用了注意權(quán)值A(chǔ)來提供歷史對齊信息,具體的選擇會在下一小節(jié)介紹。 作者定義了一個將注意力權(quán)重8391753e-5944-11ed-a3b6-dac502259ad0.png作為輸入,輸出為精煉矩陣839d53e0-5944-11ed-a3b6-dac502259ad0.png的函數(shù)83ad28f6-5944-11ed-a3b6-dac502259ad0.png

83b81784-5944-11ed-a3b6-dac502259ad0.png

其中83c67f90-5944-11ed-a3b6-dac502259ad0.png是在時間步83d531a2-5944-11ed-a3b6-dac502259ad0.png時的注意力權(quán)重。83e98c24-5944-11ed-a3b6-dac502259ad0.png代表一個卷積核,*代表卷積操作。83f51166-5944-11ed-a3b6-dac502259ad0.png是一個偏置項,8401eb34-5944-11ed-a3b6-dac502259ad0.png是一個線性投影矩陣。 作者認為函數(shù)840f6a84-5944-11ed-a3b6-dac502259ad0.png可以提取局部覆蓋特征來檢測已解析區(qū)域的邊緣,并識別傳入的未解析區(qū)域。最終,作者通過減去精煉項R來達到精煉注意力項E的目的。覆蓋注意力本節(jié)將介紹注意權(quán)重A的具體選擇。作者提出了自覆蓋、交叉覆蓋以及融合覆蓋三種模式,以利用不同階段的對齊信息。自覆蓋: 自覆蓋是指使用當前層生成的對齊信息作為注意精煉模塊的輸入。對于當前層j,首先計算注意權(quán)重8420b0d2-5944-11ed-a3b6-dac502259ad0.png,并對其進行精煉。

842c1814-5944-11ed-a3b6-dac502259ad0.png

其中843b1c42-5944-11ed-a3b6-dac502259ad0.png代表了精煉后的點積結(jié)果。8446a6de-5944-11ed-a3b6-dac502259ad0.png代表在j層精煉后的注意力權(quán)重。交叉覆蓋:作者利用Transformer中解碼層相互堆疊的特性,提出了一種新的交叉覆蓋方法。交叉覆蓋使用前一層的對齊信息作為當前層ARM的輸入。j為當前層,我們使用精煉后的注意力權(quán)重8452e93a-5944-11ed-a3b6-dac502259ad0.png之前8461ce82-5944-11ed-a3b6-dac502259ad0.png層來精煉當前層的注意力項。

846fa4d0-5944-11ed-a3b6-dac502259ad0.png

融合覆蓋:將自覆蓋和交叉覆蓋相結(jié)合,作者提出了一種新的融合覆蓋方法,充分利用從不同層生成的過去對齊信息。

848740c2-5944-11ed-a3b6-dac502259ad0.png

其中8495b63e-5944-11ed-a3b6-dac502259ad0.png表示來自當前層的注意權(quán)重與來自前一層的精煉注意權(quán)重進行拼接。

三、主要實驗結(jié)果及可視化結(jié)果

表1 與先前工作在CROHME數(shù)據(jù)集上的效果的比較

84a19f30-5944-11ed-a3b6-dac502259ad0.png

從表1中可以看出,與使用覆蓋注意力機制的RNN的模型相比,CoMER在每個CROHME測試集上的性能優(yōu)于Ding等人[5]提出的先前最先進的模型。在完全正確率ExpRate中,與之前性能最好的基于RNN的模型相比,CoMER平均提高了1.43%。與基于Transformer的模型相比,作者提出的帶有ARM和融合覆蓋的CoMER顯著提高了性能。具體而言,CoMER在所有指標上都優(yōu)于基準“BTTR”,在ExpRate中平均領(lǐng)先基準“BTTR”3.6%。

表2 各模塊消融實驗

84c74f0a-5944-11ed-a3b6-dac502259ad0.png

在表2中,“Scale -aug”表示是否采用尺度增廣[6]?!癝elf-cov”和“Cross-cov”分別表示是否使用自覆蓋和交叉覆蓋。與BTTR相比,采用ARM和覆蓋機制的CoMER的性能有了明顯的提高。

84e9ffe6-5944-11ed-a3b6-dac502259ad0.png

圖3 不同算法在CROHME 2014數(shù)據(jù)集上不同長度正確率的對比 從圖3中可以看到,相較于基準方法與本文提出的三種覆蓋方法,融合覆蓋可以大大增強模型對長公式的識別率。這也驗證了覆蓋機制能夠更好地引導(dǎo)注意力對齊歷史信息。

84feee74-5944-11ed-a3b6-dac502259ad0.png

圖4 公式圖像識別中的精煉項R可視化。

如圖4所示,作者將識別過程中的精煉項R可視化。可以看到,經(jīng)過解析的區(qū)域顏色較深,這表明ARM將抑制這些解析區(qū)域的注意權(quán)重,鼓勵模型關(guān)注未解析區(qū)域??梢暬瘜嶒灡砻?,作者提出的ARM可以有效地緩解覆蓋不足的問題。

四、總結(jié)及討論

作者受RNN中覆蓋注意力的啟發(fā),提出將覆蓋機制引入到Transformer解碼器中。提出了一種新的注意精煉模塊(ARM),使得在Transformer中進行注意力精煉的同時不損害其并行計算特性成為可能。同時還提出了自覆蓋、交叉覆蓋和融合覆蓋的方法,利用來自當前層和前一層的過去對齊信息來優(yōu)化注意權(quán)重。實驗證明了作者提出的CoMER緩解了覆蓋不足的問題,顯著提高了長表達式的識別精度。作者認為其提出的注意精煉框架不僅適用于手寫數(shù)學(xué)表達式識別。ARM可以幫助精煉注意權(quán)重,提高所有需要動態(tài)對齊的任務(wù)的對齊質(zhì)量。為此,作者打算將解碼器中的ARM擴展為一個通用框架,用于解決未來工作中的各種視覺和語言任務(wù)(例如,機器翻譯、文本摘要、圖像字幕)。

原文作者: Wenqi Zhao, Liangcai Gao

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 解碼器
    +關(guān)注

    關(guān)注

    9

    文章

    1129

    瀏覽量

    40637
  • ARM
    ARM
    +關(guān)注

    關(guān)注

    134

    文章

    9027

    瀏覽量

    366490
  • 編碼器
    +關(guān)注

    關(guān)注

    45

    文章

    3574

    瀏覽量

    133982
收藏 人收藏

    評論

    相關(guān)推薦

    Llama 3 模型與其他AI工具對比

    、技術(shù)架構(gòu) Llama 3模型 采用了最新的Transformer架構(gòu),并結(jié)合了自注意力機制和分組查詢關(guān)注(GQA)機制。 引入了高效的tokenizer和RoPE位置編碼,提高了語言
    的頭像 發(fā)表于 10-27 14:37 ?279次閱讀

    matlab 神經(jīng)網(wǎng)絡(luò) 數(shù)學(xué)建模數(shù)值分析

    matlab神經(jīng)網(wǎng)絡(luò) 數(shù)學(xué)建模數(shù)值分析 精通的可以討論下
    發(fā)表于 09-18 15:14

    【《大語言模型應(yīng)用指南》閱讀體驗】+ 基礎(chǔ)知識學(xué)習(xí)

    并捕捉長距離依賴關(guān)系的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。Transformer通過編碼器(Encoder)和解碼器(Decoder)兩部分實現(xiàn)語言的編碼和解碼。 注意力機制Transformer中的
    發(fā)表于 08-02 11:03

    llm模型有哪些格式

    : 基于Transformer的模型 Transformer是一種基于自注意力機制的模型,廣泛應(yīng)用于NLP領(lǐng)域?;?b class='flag-5'>Transformer的
    的頭像 發(fā)表于 07-09 09:59 ?518次閱讀

    Transformer模型在語音識別和語音生成中的應(yīng)用優(yōu)勢

    隨著人工智能技術(shù)的飛速發(fā)展,語音識別和語音生成作為人機交互的重要組成部分,正逐漸滲透到我們生活的各個方面。而Transformer模型,自其誕生以來,憑借其獨特的自注意力機制和并行計算
    的頭像 發(fā)表于 07-03 18:24 ?923次閱讀

    數(shù)學(xué)建模神經(jīng)網(wǎng)絡(luò)模型的優(yōu)缺點有哪些

    數(shù)學(xué)建模神經(jīng)網(wǎng)絡(luò)模型是一種基于人工神經(jīng)網(wǎng)絡(luò)的數(shù)學(xué)建模方法,它通過模擬人腦神經(jīng)元的連接和信息傳遞機制,對復(fù)雜系統(tǒng)進行
    的頭像 發(fā)表于 07-02 11:36 ?767次閱讀

    神經(jīng)網(wǎng)絡(luò)在數(shù)學(xué)建模中的應(yīng)用

    數(shù)學(xué)建模是一種利用數(shù)學(xué)方法和工具來描述和分析現(xiàn)實世界問題的過程。神經(jīng)網(wǎng)絡(luò)是一種模擬人腦神經(jīng)元結(jié)構(gòu)和功能的計算模型,可以用于解決各種復(fù)雜問題。在數(shù)學(xué)
    的頭像 發(fā)表于 07-02 11:29 ?782次閱讀

    Transformer 能代替圖神經(jīng)網(wǎng)絡(luò)嗎?

    初設(shè)計之外的數(shù)據(jù)(如圖像和其他序列數(shù)據(jù))。然后人們也開始優(yōu)化和尋找替代方案,主要是為了減少計算成本(自注意力機制的二次方成本)。關(guān)于哪種架構(gòu)在計算成本方面更優(yōu)的討論一
    的頭像 發(fā)表于 07-02 08:27 ?316次閱讀
    <b class='flag-5'>Transformer</b> 能代替圖神經(jīng)網(wǎng)絡(luò)嗎?

    【大規(guī)模語言模型:從理論到實踐】- 閱讀體驗

    再次感謝電子發(fā)燒友提供的書籍試讀機會。今天來分享下我在學(xué)習(xí)大模型訓(xùn)練中 注意力機制 的心得體會。 雖然注意力機制可以顯著提高模型處理長序列數(shù)據(jù)的能力,但這也帶來了計算成本的增加。在大型
    發(fā)表于 06-07 14:44

    采用單片超構(gòu)表面與元注意力網(wǎng)絡(luò)實現(xiàn)快照式近紅外光譜成像

    日前,北京理工大學(xué)王涌天教授、黃玲玲教授團隊聯(lián)合張軍院士、邊麗蘅教授團隊,采用單片超構(gòu)表面與元注意力網(wǎng)絡(luò)實現(xiàn)快照式近紅外光譜成像。
    的頭像 發(fā)表于 04-25 09:08 ?978次閱讀
    采用單片超構(gòu)表面與元<b class='flag-5'>注意力</b>網(wǎng)絡(luò)實現(xiàn)快照式近紅外光譜成像

    視覺Transformer基本原理及目標檢測應(yīng)用

    視覺Transformer的一般結(jié)構(gòu)如圖2所示,包括編碼器和解碼器兩部分,其中編碼器每一層包括一個多頭自注意力模塊(self-attention)和一個位置前饋神經(jīng)網(wǎng)絡(luò)(FFN)。
    發(fā)表于 04-03 10:32 ?3130次閱讀
    視覺<b class='flag-5'>Transformer</b>基本原理及目標檢測應(yīng)用

    基于Transformer的多模態(tài)BEV融合方案

    由于大量的相機和激光雷達特征以及注意力的二次性質(zhì),將 Transformer 架構(gòu)簡單地應(yīng)用于相機-激光雷達融合問題是很困難的。
    發(fā)表于 01-23 11:39 ?705次閱讀
    基于<b class='flag-5'>Transformer</b>的多模態(tài)BEV融合方案

    labview公式波形里的公式

    以通過輸入公式來生成波形數(shù)據(jù)。 在LabVIEW中,公式波形是通過數(shù)學(xué)公式來生成數(shù)據(jù)點序列的一種功能模塊。通過在公式波形模塊中設(shè)置數(shù)學(xué)表達式
    的頭像 發(fā)表于 01-07 17:12 ?1996次閱讀

    語言模型的弱監(jiān)督視頻異常檢測方法

    了局部Transformer的mask,從時序上將輸入視頻幀特征分割為多個等長塊,令自注意力計算局限于塊內(nèi),減少了冗余信息建模,降低計算復(fù)雜度。
    的頭像 發(fā)表于 01-02 15:20 ?736次閱讀
    語言模型的弱監(jiān)督視頻異常檢測方法

    全新近似注意力機制HyperAttention:對長上下文友好、LLM推理提速50%

    本文介紹了一項近似注意力機制新研究,耶魯大學(xué)、谷歌研究院等機構(gòu)提出了 HyperAttention,使 ChatGLM2 在 32k 上下文長度上的推理時間快了 50%。 Transformer
    的頭像 發(fā)表于 11-20 09:15 ?548次閱讀
    全新近似<b class='flag-5'>注意力</b><b class='flag-5'>機制</b>HyperAttention:對長上下文友好、LLM推理提速50%