0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

LSTM幾個關(guān)鍵“門”與操作

Dbwd_Imgtec ? 來源:未知 ? 作者:李倩 ? 2018-10-09 16:17 ? 次閱讀

1. 摘要

對于RNN解決了之前信息保存的問題,例如,對于閱讀一篇文章,RNN網(wǎng)絡(luò)可以借助前面提到的信息對當前的詞進行判斷和理解,這是傳統(tǒng)的網(wǎng)絡(luò)是不能做到的。但是,對于RNN網(wǎng)絡(luò)存在長期依賴問題,比如看電影的時候,某些細節(jié)需要依賴很久以前的一些信息,而RNN網(wǎng)絡(luò)并不能很好的保存很久之前的信息,隨著時間間隔不斷增大,RNN網(wǎng)絡(luò)會喪失學(xué)習(xí)到很遠的信息能力,也就是說記憶容量是有限的。例如,對于閱讀一本書,從頭到尾一字不漏的閱讀,肯定是越遠的東西忘得越多。所以引入了LSTM網(wǎng)絡(luò),對于LSTM來解決梯度消失梯度爆炸問題。

LSTM其實也是RNN的一種變體,大體結(jié)構(gòu)幾乎是一樣的,但他們又有區(qū)別他的“記憶細胞”被改造過,該記憶的信息會一直傳遞下去,而不該記憶的東西會被“門”截斷。

2. LSTM網(wǎng)絡(luò)

對于RNN網(wǎng)絡(luò)都是具有重復(fù)神經(jīng)網(wǎng)絡(luò)模塊的鏈式形式,在一個標準RNN中這個重復(fù)的模塊只要一個非常簡單的結(jié)構(gòu),例如一個tanh層。

對于LSTM同樣是這樣的結(jié)構(gòu),但是重復(fù)的模塊變得復(fù)雜了。

對于圖中的一些細節(jié),

在LSTM網(wǎng)絡(luò)的圖中,每一條黑線表示向量的傳輸,從一個節(jié)點的輸出傳入其它節(jié)點的輸出。對于粉紅色的圈代表著節(jié)點的操作,如向量的求和等。黃色的矩陣是學(xué)習(xí)到的網(wǎng)絡(luò)層。Concatenate的線表示向量的連接,Copy的線表示內(nèi)容復(fù)制,然后輸出到不同的位置。

3. LSTM的關(guān)鍵點

對于LSTM的關(guān)鍵是細胞狀態(tài),細胞的狀態(tài)類似于傳送帶,直接在整個鏈路上運行,只有一些少量的線性交互。

4. 細胞狀態(tài)的控制

LSTM是通過“門”來控制細胞狀態(tài)的,通過“門”來選擇性通過,去除或者增加信息到細胞狀態(tài)。它包含一個sigmoid網(wǎng)絡(luò)層和一個pointwise乘法操作。Sigmoid層輸入0到1之間的概率值,藐視每個部分有多少量可以通過,0代表不允許任何量通過,1代表允許任何量通過。LSTM是擁有三個門,來保護和控制細胞狀態(tài)的。

5. LSTM幾個關(guān)鍵“門”與操作

STEP 1: 決定從“細胞狀態(tài)”中丟棄什么信息即“忘記門”。比如一篇小說的推導(dǎo),小說中可能有幾個人物,在讀小說時候我們都會記住,但有些是不重要的這時候我就選擇忘掉,而把重要的東西記住??傊绻獩Q定之前的記憶以多大的程度被忘掉或者需要被保留,我們需要通過sigmoid函數(shù)去參考上一次的結(jié)果與當前考到的內(nèi)容。

ft是輸出0到1的概率,表示已多大的程度忘記之前的信息。h表示上一次輸出的結(jié)果,x表示當前輸入的信息。

STEP 2: 決定放什么信息到“細胞狀態(tài)”中。從step 1中我們在傳送帶上忘記了一些東西,那我們應(yīng)該補充點東西,對細胞轉(zhuǎn)態(tài)進行更新。也就是說哪些東西要記住,這一步就是君頂放什么心信息到“細胞狀態(tài)”中。

這里的Sigmoid層是決定什么值需要更新,也就是這一時刻我們新學(xué)到我們學(xué)到的東西哪些應(yīng)該要記住,以多大的程度選擇記??;Tanh層創(chuàng)建了一個新的候選值Ct,表示我們新學(xué)到的東西。

STEP 3: 更新細胞狀態(tài)。前面兩步就是為細胞狀態(tài)的更新做準備的,更新C(t-1)為Ct。也就是把舊狀態(tài)與ft相乘,丟掉我們確定需要丟棄的信息,加上it*Ct。這就是新的候選值,根據(jù)我們決定更新每個狀態(tài)的程度進行變化。

從數(shù)學(xué)的角度來看,與RNN相比,在求偏導(dǎo)的時候RNN是進行鏈式相乘的,有一個效果不好,那么就會影響整個系統(tǒng),效果影響到整個網(wǎng)絡(luò)。而在LSTM中,從以上的公式可看出,做完Tanh后沒在進行求和,所以再求偏導(dǎo)的時候,就算有一個效果不好也不會影響到整個網(wǎng)絡(luò),因為這里是進行加法運算的,所以很大程度上解決了梯度消失梯度爆炸問題。

STEP 4: 基于“細胞狀態(tài)”輸出。首先運行一個Sigmoid層來確定細胞狀態(tài)的哪個部分將輸出,接著用Tanh來處理細胞狀態(tài),這是一個從-1到1的值。然后再講它和Sigmoid門的輸出相乘,輸出我們確定輸出的那個部分。比如我們可能需要單復(fù)數(shù)信息來確定輸出“他”還是“他們”。最終輸出我們想要輸出的部分。

6. LSTM主要變體

變種1:通過使用coupled忘記和輸出門,之前是分開確定需要忘記和添加的信息,這里是一同作出決定。

變種二:Gated Recurrent Unit (GRU),2014年提出的,他將忘記門和輸出門合成一個單一的更新門,同樣還混合了細胞狀態(tài)和隱藏轉(zhuǎn)態(tài),和其他一起改動,與標準的LSTM簡單。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4717

    瀏覽量

    100010
  • rnn
    rnn
    +關(guān)注

    關(guān)注

    0

    文章

    76

    瀏覽量

    6855

原文標題:談?wù)凩STM(Long Short-Term Memory)長短期記憶網(wǎng)絡(luò)

文章出處:【微信號:Imgtec,微信公眾號:Imagination Tech】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    幾個DSP編程的關(guān)鍵問題

    幾個DSP編程的關(guān)鍵問題DSP芯片憑其優(yōu)異的性能在高速計算領(lǐng)域有著巨大的應(yīng)用前景。但其應(yīng)用所設(shè)計的知識非常龐雜。本文以TI公司的 320C54X系列為藍本進行提純,所有認識都是筆者在實際工作中親手
    發(fā)表于 11-03 15:10

    什么是LSTM神經(jīng)網(wǎng)絡(luò)

    簡單理解LSTM神經(jīng)網(wǎng)絡(luò)
    發(fā)表于 01-28 07:16

    高質(zhì)量的雙量子比特操作

    高質(zhì)量的雙量子比特操作(比如常見的CNOT,控制非門)是可擴展量子計算信息處理的關(guān)鍵。因為,在型量子計算里,可靠的單量子
    發(fā)表于 07-29 08:48

    LED燈具設(shè)計的幾個關(guān)鍵秘訣

    LED燈具設(shè)計的幾個關(guān)鍵秘訣,需要完整版的小伙伴可以下載附件。
    發(fā)表于 08-19 10:58

    SCL語言有幾個關(guān)鍵的點

    SCL有幾個關(guān)鍵的點?分別是什么?
    發(fā)表于 09-30 06:47

    深度解析LSTM的全貌

    原來,LSTM是神經(jīng)網(wǎng)絡(luò)的擴展,非常簡單。深度學(xué)習(xí)在過去的幾年里取得了許多驚人的成果,均與LSTM息息相關(guān)。因此,在本篇文章中我會用盡可能直觀的方式為大家介紹LSTM——方便大家日后自己進行相關(guān)的探索。
    的頭像 發(fā)表于 02-02 10:39 ?1w次閱讀
    深度解析<b class='flag-5'>LSTM</b>的全貌

    RNN及其變體LSTM和GRU

    下圖為一個雙層LSTM對三個不同的單詞的反應(yīng)分布。該LSTM每層有600個細胞狀態(tài)單元,基于Penn Tree Bank(PTB)數(shù)據(jù)集訓(xùn)練。我們可以看到,模型對介詞(“for”)和代詞(“he”、“she”)的反應(yīng)模式大不相同。
    的頭像 發(fā)表于 06-30 11:11 ?1.6w次閱讀
    RNN及其變體<b class='flag-5'>LSTM</b>和GRU

    LSTM的核心構(gòu)成,實際中“”的效果如何?

    是否真的具有我們上述描述的意義呢?這也是我們這篇論文的出發(fā)點。為了探究這個問題,我們分析了IWSLT14德語-英語的翻譯任務(wù),這個翻譯任務(wù)的模型是基于LSTM的端到端(sequence-to-sequence)結(jié)構(gòu)。
    的頭像 發(fā)表于 07-02 15:53 ?9832次閱讀
    <b class='flag-5'>LSTM</b>的核心構(gòu)成,實際中“<b class='flag-5'>門</b>”的效果如何?

    LSTM的硬件加速方式

    Long-short term memory,簡稱LSTM,被廣泛的應(yīng)用于語音識別、機器翻譯、手寫識別等。LSTM涉及到大量的矩陣乘法和向量乘法運算,會消耗大量的FPGA計算資源和帶寬。為了實現(xiàn)硬件加速,提出了稀疏LSTM。
    發(fā)表于 08-24 10:32 ?2939次閱讀
    <b class='flag-5'>LSTM</b>的硬件加速方式

    一種具有強記憶力的 E3D-LSTM網(wǎng)絡(luò),強化了LSTM的長時記憶能力

    標準 LSTM 單元結(jié)構(gòu) 首先簡要介紹一下標準 LSTM 結(jié)構(gòu),和 RNN 相比 LSTM 增加了更復(fù)雜的結(jié)構(gòu)(圖中黃色模塊),主要解決 RNN 中存在的梯度消失問題,從而提高網(wǎng)
    的頭像 發(fā)表于 09-01 07:35 ?1.1w次閱讀
    一種具有強記憶力的 E3D-<b class='flag-5'>LSTM</b>網(wǎng)絡(luò),強化了<b class='flag-5'>LSTM</b>的長時記憶能力

    循環(huán)神經(jīng)網(wǎng)絡(luò)LSTM為何如此有效?

    的根本原因有哪些?本文結(jié)合簡單的案例,帶大家了解關(guān)于 LSTM 的五個秘密,也解釋了 LSTM如此有效的關(guān)鍵所在。 秘密一:發(fā)明LSTM是因為RNN 發(fā)生嚴重的內(nèi)存泄漏 之前,我們介紹
    的頭像 發(fā)表于 03-19 11:22 ?2709次閱讀
    循環(huán)神經(jīng)網(wǎng)絡(luò)<b class='flag-5'>LSTM</b>為何如此有效?

    基于LSTM的流式文檔結(jié)構(gòu)識別方法

    長短期時間記憶(LSTM)網(wǎng)絡(luò)的流式文檔結(jié)構(gòu)識別方法。從文檔單元的格式、內(nèi)容與語義3個方面篩選關(guān)鍵特征,并將文檔結(jié)構(gòu)識別看作序列標注冋題,使用雙冋向LSTM神經(jīng)網(wǎng)絡(luò)枃建識別模型,以實現(xiàn)對18種邏輯標簽的識別。實驗結(jié)果表明
    發(fā)表于 05-13 15:55 ?7次下載

    AXI協(xié)議的幾個關(guān)鍵特性

    AXI 協(xié)議有幾個關(guān)鍵特性,旨在改善數(shù)據(jù)傳輸和事務(wù)的帶寬和延遲
    的頭像 發(fā)表于 05-06 09:49 ?990次閱讀

    認識一下幾個常用的級電路

    標準單元庫是數(shù)字集成電路的積木,是復(fù)雜電路和系統(tǒng)的基礎(chǔ)。今天我們來認識一下其中的幾個常用級電路。
    的頭像 發(fā)表于 10-09 15:49 ?1112次閱讀
    認識一下<b class='flag-5'>幾個</b>常用的<b class='flag-5'>門</b>級電路

    LSTM模型的基本組成

    的梯度消失或梯度爆炸問題。LSTM通過引入三個“”控制結(jié)構(gòu)——遺忘、輸入門和輸出門,以及一個記憶細胞(memory cell),實現(xiàn)了對信息的有效存儲和更新。本文將對LSTM模型的
    的頭像 發(fā)表于 07-10 17:01 ?584次閱讀