0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

講解CNN+RNN的各種組合方式,以及CNN和RNN的對比

Dbwd_Imgtec ? 來源:未知 ? 作者:李倩 ? 2018-09-13 15:22 ? 次閱讀

一、前述

CNN和RNN幾乎占據(jù)著深度學習的半壁江山,所以本文將著重講解CNN+RNN的各種組合方式,以及CNN和RNN的對比。

二、CNN與RNN對比

1、CNN卷積神經(jīng)網(wǎng)絡(luò)與RNN遞歸神經(jīng)網(wǎng)絡(luò)直觀圖

2、相同點:

2.1. 傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的擴展。

2.2. 前向計算產(chǎn)生結(jié)果,反向計算模型更新。

2.3. 每層神經(jīng)網(wǎng)絡(luò)橫向可以多個神經(jīng)元共存,縱向可以有多層神經(jīng)網(wǎng)絡(luò)連接。

3、不同點

3.1. CNN空間擴展,神經(jīng)元與特征卷積;RNN時間擴展,神經(jīng)元與多個時間輸出計算

3.2. RNN可以用于描述時間上連續(xù)狀態(tài)的輸出,有記憶功能,CNN用于靜態(tài)輸出

3. 3. CNN高級100+深度,RNN深度有限

三、CNN+RNN組合方式

1. CNN 特征提取,用于RNN語句生成圖片標注。

2. RNN特征提取用于CNN內(nèi)容分類視頻分類。

3. CNN特征提取用于對話問答圖片問答。

四、具體應(yīng)用

1、圖片標注

基本思路

目標是產(chǎn)生標注的語句,是一個語句生成的任務(wù),LSTM?描述的對象大量圖像信息,圖像信息表達,CNN?CNN網(wǎng)絡(luò)中全連接層特征描述圖片,特征與LSTM輸入結(jié)合。

具體步驟:

1.1 模型設(shè)計-特征提取全連接層特征用來描述原圖片LSTM輸入:word+圖片特征;輸出下一word。

1.2 模型設(shè)計-數(shù)據(jù)準備

1. 圖片CNN特征提取2. 圖片標注生成Word2Vect 向量3. 生成訓練數(shù)據(jù):圖片特征+第n單詞向量:第n+1單詞向量。

1.3 模型訓練:

1. 運用遷移學習,CNN特征,語句特征應(yīng)用已有模型2. 最終的輸出模型是LSTM,訓練過程的參數(shù)設(shè)定:梯度上限(gradient clipping), 學習率調(diào)整(adaptivelearning)3. 訓練時間很長。

1.4 模型運行:

1. CNN特征提取2. CNN 特征+語句開頭,單詞逐個預測

2、視頻行為識別 :

視頻中在發(fā)生什么?

2.1常用方法總結(jié):

RNN用于CNN特征融合1. CNN 特征提取2. LSTM判斷3. 多次識別結(jié)果分析。

不同的特征不同輸出。

或者:所有特征作為一個輸出。

2.2 RNN用于CNN特征篩選+融合:

1. 并不是所有的視頻 圖像包含確定分類信息2. RNN用于確定哪些frame 是有用的3. 對有用的圖像特征 融合。

2.3 RNN用于,目標檢測

1. CNN直接產(chǎn)生目標候選區(qū)2. LSTM對產(chǎn)生候選區(qū)融合(相鄰時刻位置近 似)3. 確定最終的精確位置。

2.4 多種模型綜合:

競賽/應(yīng)用中,為了產(chǎn)生最好結(jié)果,多采用 多模型ensemble形式。

3、圖片/視頻問答

3.1 問題種類

3.2 圖片問答意義

1. 是對純文本語言問答系統(tǒng)的擴展2. 圖片理解和語言處理的深度融合3. 提高人工智能應(yīng)用范圍-觀察,思考,表達

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • cnn
    cnn
    +關(guān)注

    關(guān)注

    3

    文章

    350

    瀏覽量

    22132
  • 遷移學習
    +關(guān)注

    關(guān)注

    0

    文章

    74

    瀏覽量

    5554
  • rnn
    rnn
    +關(guān)注

    關(guān)注

    0

    文章

    76

    瀏覽量

    6868

原文標題:深度學習篇——CNN和RNN結(jié)合與對比,實例講解

文章出處:【微信號:Imgtec,微信公眾號:Imagination Tech】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    TF之CNNCNN實現(xiàn)mnist數(shù)據(jù)集預測

    TF之CNNCNN實現(xiàn)mnist數(shù)據(jù)集預測 96%采用placeholder用法+2層C及其max_pool法+隱藏層dropout法+輸出層softmax法+目標函數(shù)cross_entropy法+
    發(fā)表于 12-19 17:02

    利用RNN進行文章生成

    利用RNN進行文章生成
    發(fā)表于 05-24 08:35

    遞歸神經(jīng)網(wǎng)絡(luò)(RNN

    遞歸神經(jīng)網(wǎng)絡(luò)(RNNRNN是最強大的模型之一,它使我們能夠開發(fā)如分類、序列數(shù)據(jù)標注、生成文本序列(例如預測下一輸入詞的SwiftKey keyboard應(yīng)用程序),以及將一個序列轉(zhuǎn)換為另一個序列
    發(fā)表于 07-20 09:27

    CNNRNN結(jié)合與對比,實例講解

    由 mengqiqi 于 星期三, 2018-09-05 09:58 發(fā)表 一、前述 CNNRNN幾乎占據(jù)著深度學習的半壁江山,所以本文將著重講解CNN+RNN
    發(fā)表于 09-06 22:32 ?755次閱讀

    一文帶你了解(神經(jīng)網(wǎng)絡(luò))DNN、CNN、和RNN

    很多“長相相似”的專有名詞,比如我們今天要說的“三胞胎”DNN(深度神經(jīng)網(wǎng)絡(luò))、CNN(卷積神經(jīng)網(wǎng)絡(luò))、RNN(遞歸神經(jīng)網(wǎng)絡(luò)),就讓許許多多的AI初學者們傻傻分不清楚。而今天,就讓我們一起擦亮眼睛,好好
    發(fā)表于 03-13 14:32 ?4640次閱讀

    CNNRNN對比 CNN+RNN組合方式

    相同點: 傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的擴展。 前向計算產(chǎn)生結(jié)果,反向計算模型更新。 每層神經(jīng)網(wǎng)絡(luò)橫向可以多個神經(jīng)元共存,縱向可以有多層神經(jīng)網(wǎng)絡(luò)連接。
    發(fā)表于 02-08 19:07 ?7371次閱讀

    深度分析RNN的模型結(jié)構(gòu),優(yōu)缺點以及RNN模型的幾種應(yīng)用

    神經(jīng)網(wǎng)絡(luò)是深度學習的載體,而神經(jīng)網(wǎng)絡(luò)模型中,最經(jīng)典非RNN模型所屬,盡管它不完美,但它具有學習歷史信息的能力。后面不管是encode-decode 框架,還是注意力模型,以及自注意力模型,以及更加
    的頭像 發(fā)表于 05-13 10:47 ?2.4w次閱讀
    深度分析<b class='flag-5'>RNN</b>的模型結(jié)構(gòu),優(yōu)缺點<b class='flag-5'>以及</b><b class='flag-5'>RNN</b>模型的幾種應(yīng)用

    基于CNN和LSTM的蛋白質(zhì)亞細胞定位研究對比

    基于CNN和LSTM的蛋白質(zhì)亞細胞定位研究對比
    發(fā)表于 06-11 14:16 ?15次下載

    RNN以及LSTM

    循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)是一種用于處理序列數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò)。相比一般的神經(jīng)網(wǎng)絡(luò)來說,他能夠處理序列變化的數(shù)據(jù)。比如某個單詞的意思會因為上文提到的內(nèi)容不同而有不同的含義,RNN就能夠很好地解決這類問題。
    的頭像 發(fā)表于 03-15 10:44 ?1835次閱讀

    cnn卷積神經(jīng)網(wǎng)絡(luò)簡介 cnn卷積神經(jīng)網(wǎng)絡(luò)代碼

    以解決圖像識別問題為主要目標,但它的應(yīng)用已經(jīng)滲透到了各種領(lǐng)域,從自然語言處理、語音識別、到物體標記以及醫(yī)療影像分析等。在此,本文將對CNN的原理、結(jié)構(gòu)以及基礎(chǔ)代碼進行
    的頭像 發(fā)表于 08-21 17:16 ?2605次閱讀

    NLP模型中RNNCNN的選擇

    在自然語言處理(NLP)領(lǐng)域,循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)與卷積神經(jīng)網(wǎng)絡(luò)(CNN)是兩種極為重要且廣泛應(yīng)用的網(wǎng)絡(luò)結(jié)構(gòu)。它們各自具有獨特的優(yōu)勢,適用于處理不同類型的NLP任務(wù)。本文旨在深入探討RNN
    的頭像 發(fā)表于 07-03 15:59 ?374次閱讀

    rnn神經(jīng)網(wǎng)絡(luò)基本原理

    RNN(Recurrent Neural Network,循環(huán)神經(jīng)網(wǎng)絡(luò))是一種具有循環(huán)結(jié)構(gòu)的神經(jīng)網(wǎng)絡(luò),它能夠處理序列數(shù)據(jù),并且能夠捕捉時間序列數(shù)據(jù)中的動態(tài)特征。RNN在自然語言處理、語音識別、時間
    的頭像 發(fā)表于 07-04 15:02 ?596次閱讀

    rnn神經(jīng)網(wǎng)絡(luò)模型原理

    的應(yīng)用。本文將介紹RNN的原理、結(jié)構(gòu)、優(yōu)化方法以及實際應(yīng)用。 RNN的基本原理 1.1 循環(huán)結(jié)構(gòu) RNN的核心特點是具有循環(huán)結(jié)構(gòu),即網(wǎng)絡(luò)中的神經(jīng)元不僅與前一層的神經(jīng)元相連,還與同一層次
    的頭像 發(fā)表于 07-04 15:40 ?464次閱讀

    rnn是什么神經(jīng)網(wǎng)絡(luò)

    RNN(Recurrent Neural Network,循環(huán)神經(jīng)網(wǎng)絡(luò))是一種具有循環(huán)連接的神經(jīng)網(wǎng)絡(luò),它能夠處理序列數(shù)據(jù),并且具有記憶能力。與傳統(tǒng)的前饋神經(jīng)網(wǎng)絡(luò)(Feedforward Neural
    的頭像 發(fā)表于 07-05 09:49 ?530次閱讀

    CNNRNN的關(guān)系?

    在深度學習的廣闊領(lǐng)域中,卷積神經(jīng)網(wǎng)絡(luò)(CNN)和循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)是兩種極為重要且各具特色的神經(jīng)網(wǎng)絡(luò)模型。它們各自在圖像處理、自然語言處理等領(lǐng)域展現(xiàn)出卓越的性能。本文將從概念、原理、應(yīng)用場景及代碼示例等方面詳細探討CNN
    的頭像 發(fā)表于 07-08 16:56 ?537次閱讀