0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何去理解CNN卷積層與池化層計(jì)算?

電子工程師 ? 來源:51CTO博客gloomyfish ? 作者:gloomyfish ? 2021-04-06 15:13 ? 次閱讀

概述

深度學(xué)習(xí)中CNN網(wǎng)絡(luò)是核心,對(duì)CNN網(wǎng)絡(luò)來說卷積層與池化層的計(jì)算至關(guān)重要,不同的步長、填充方式、卷積核大小、池化層策略等都會(huì)對(duì)最終輸出模型與參數(shù)、計(jì)算復(fù)雜度產(chǎn)生重要影響,本文將從卷積層與池化層計(jì)算這些相關(guān)參數(shù)出發(fā),演示一下不同步長、填充方式、卷積核大小計(jì)算結(jié)果差異。

一:卷積層

卷積神經(jīng)網(wǎng)絡(luò)(CNN)第一次提出是在1997年,楊樂春(LeNet)大神的一篇關(guān)于數(shù)字OCR識(shí)別的論文,在2012年的ImageNet競賽中CNN網(wǎng)絡(luò)成功擊敗其它非DNN模型算法,從此獲得學(xué)術(shù)界的關(guān)注與工業(yè)界的興趣。毫無疑問學(xué)習(xí)深度學(xué)習(xí)必須要學(xué)習(xí)CNN網(wǎng)絡(luò),學(xué)習(xí)CNN就必須明白卷積層,池化層等這些基礎(chǔ)各層,以及它們的參數(shù)意義,從本質(zhì)上來說,圖像卷積都是離散卷積,圖像數(shù)據(jù)一般都是多維度數(shù)據(jù)(至少兩維),離散卷積本質(zhì)上是線性變換、具有稀疏與參數(shù)重用特征即相同參數(shù)可以應(yīng)用輸入圖像的不同小分塊,假設(shè)有3x3離散卷積核如下:

pIYBAGBsCaaAXhtpAAAVeBDiS9Q778.png

假設(shè)有

5x5的圖像輸入塊

步長為1(strides=1)

填充方式為VALID(Padding=VALID)

卷積核大小filter size=3x3

則它們的計(jì)算過程與輸出如下

100017588-59694-2.png

假設(shè)這個(gè)時(shí)候我們修改步長為2、填充方式為SAME,卷積核大小不變(strides=2 Padding=SAME filter size=3x3),則計(jì)算過程與輸出變?yōu)槿缦拢?/p>

100017588-59695-3.png

最終輸出得到的結(jié)果我們可以稱為featuremap,CNN的深度多數(shù)時(shí)候是指featuremap的個(gè)數(shù),對(duì)多維度的輸入圖像計(jì)算多個(gè)卷積核,得到多個(gè)featuremap輸出疊加,顯示如下:

100017588-59696-4.png

上述輸入為5x5x2,使用卷積核3x3,輸出3x3x3,填充方式為VALID,計(jì)算如果填充方式改為SAME則輸出為5x5x3。可以看出填充方式對(duì)輸出結(jié)果的影響。

二:小卷積核VS大卷積核

在AlexNet中有有11x11的卷積核與5x5的卷積核,但是在VGG網(wǎng)絡(luò)中因?yàn)閷訑?shù)增加,卷積核都變成3x3與1x1的大小啦,這樣的好處是可以減少訓(xùn)練時(shí)候的計(jì)算量,有利于降低總的參數(shù)數(shù)目。關(guān)于如何把大卷積核替換為小卷積核,本質(zhì)上有兩種方法。

1. 將二維卷積差分為兩個(gè)連續(xù)一維卷積

二維卷積都可以拆分為兩個(gè)一維的卷積,這個(gè)是有數(shù)學(xué)依據(jù)的,所以11x11的卷積可以轉(zhuǎn)換為1x11與11x1兩個(gè)連續(xù)的卷積核計(jì)算,總的運(yùn)算次數(shù):

11x11 = 121次

1x11+ 11x1 = 22次

2.將大二維卷積用多個(gè)連續(xù)小二維卷積替代
可見把大的二維卷積核在計(jì)算環(huán)節(jié)改成兩個(gè)連續(xù)的小卷積核可以極大降低計(jì)算次數(shù)、減少計(jì)算復(fù)雜度。同樣大的二維卷積核還可以通過幾個(gè)小的二維卷積核替代得到。比如:5x5的卷積,我們可以通過兩個(gè)連續(xù)的3x3的卷積替代,比較計(jì)算次數(shù)

5x5= 25次

3x3+ 3x3=18次

三:池化層

在CNN網(wǎng)絡(luò)中卷積池之后會(huì)跟上一個(gè)池化層,池化層的作用是提取局部均值與最大值,根據(jù)計(jì)算出來的值不一樣就分為均值池化層與最大值池化層,一般常見的多為最大值池化層。池化的時(shí)候同樣需要提供filter的大小、步長、下面就是3x3步長為1的filter在5x5的輸入圖像上均值池化計(jì)算過程與輸出結(jié)果

100017588-59697-5.png

改用最大值做池化的過程與結(jié)果如下:

100017588-59698-6.png

編輯:jq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 卷積
    +關(guān)注

    關(guān)注

    0

    文章

    94

    瀏覽量

    18466
  • cnn
    cnn
    +關(guān)注

    關(guān)注

    3

    文章

    349

    瀏覽量

    21961
  • vgg
    vgg
    +關(guān)注

    關(guān)注

    1

    文章

    11

    瀏覽量

    5169
  • 池化
    +關(guān)注

    關(guān)注

    0

    文章

    4

    瀏覽量

    1097
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    cnn常用的幾個(gè)模型有哪些

    1998年提出。它主要用于手寫數(shù)字識(shí)別,包括卷積、和全連接。 AlexNet:Alex
    的頭像 發(fā)表于 07-11 14:58 ?300次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的基本概念、原理及特點(diǎn)

    的基本概念、原理、特點(diǎn)以及在不同領(lǐng)域的應(yīng)用情況。 一、卷積神經(jīng)網(wǎng)絡(luò)的基本概念 卷積神經(jīng)網(wǎng)絡(luò)是一種深度學(xué)習(xí)算法,它由多層卷積
    的頭像 發(fā)表于 07-11 14:38 ?384次閱讀

    神經(jīng)網(wǎng)絡(luò)中的卷積、與全連接

    在深度學(xué)習(xí)中,卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)是一種特別適用于處理圖像數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。它通過卷積、
    的頭像 發(fā)表于 07-11 14:18 ?1860次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)中的作用

    在深度學(xué)習(xí)領(lǐng)域,卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)以其卓越的圖像處理和計(jì)算機(jī)視覺能力而廣受歡迎。CNN由多個(gè)
    的頭像 發(fā)表于 07-03 15:58 ?486次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)示例

    分類。 1. 卷積神經(jīng)網(wǎng)絡(luò)的基本概念 1.1 卷積(Convolutional Layer) 卷積
    的頭像 發(fā)表于 07-03 10:51 ?273次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)分類方法有哪些

    ,包括基本原理、常見架構(gòu)、優(yōu)化策略、應(yīng)用場景等。 1. 卷積神經(jīng)網(wǎng)絡(luò)的基本原理 卷積神經(jīng)網(wǎng)絡(luò)是一種前饋神經(jīng)網(wǎng)絡(luò),其核心思想是通過卷積提取輸入數(shù)據(jù)的局部特征,并通過
    的頭像 發(fā)表于 07-03 09:40 ?265次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)計(jì)算過程和步驟

    。 卷積(Convolutional Layer) 卷積卷積神經(jīng)網(wǎng)絡(luò)的核心組成部分,它通過卷積
    的頭像 發(fā)表于 07-03 09:36 ?221次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的組成部分有哪些

    卷積、激活函數(shù)、全連接、損失函數(shù)、優(yōu)化算法等,并探討它們?cè)?/div>
    的頭像 發(fā)表于 07-03 09:31 ?335次閱讀

    cnn卷積神經(jīng)網(wǎng)絡(luò)分類有哪些

    卷積神經(jīng)網(wǎng)絡(luò)概述 卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,簡稱CNN)是一種深度學(xué)習(xí)模型,由多層卷積
    的頭像 發(fā)表于 07-03 09:28 ?320次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)可以通過輸出反推到輸入嗎

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,簡稱CNN)是一種深度學(xué)習(xí)模型,廣泛應(yīng)用于圖像識(shí)別、視頻分析、自然語言處理等領(lǐng)域。CNN通過卷積
    的頭像 發(fā)表于 07-03 09:17 ?299次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)每一的作用

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,簡稱CNN)是一種深度學(xué)習(xí)算法,廣泛應(yīng)用于圖像識(shí)別、自然語言處理等領(lǐng)域。本文將詳細(xì)介紹卷積神經(jīng)網(wǎng)絡(luò)每一的作用
    的頭像 發(fā)表于 07-02 15:28 ?579次閱讀

    CNN模型的基本原理、結(jié)構(gòu)、訓(xùn)練過程及應(yīng)用領(lǐng)域

    (Convolutional Layer),它通過卷積運(yùn)算提取輸入數(shù)據(jù)的特征,然后通過(Pooling Layer)和全連接(Ful
    的頭像 發(fā)表于 07-02 15:26 ?1565次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)cnn模型有哪些

    (Convolutional Layer) 卷積CNN的核心,用于提取圖像的局部特征。卷積操作通過滑動(dòng)窗口(濾波器或卷積核)在輸入數(shù)據(jù)上
    的頭像 發(fā)表于 07-02 15:24 ?513次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)cnn的主要作用

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)是深度學(xué)習(xí)領(lǐng)域中一種重要的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),廣泛應(yīng)用于圖像識(shí)別、語音識(shí)別、自然語言處理等領(lǐng)域。在CNN中,
    的頭像 發(fā)表于 07-02 14:50 ?369次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)中的方式

    卷積神經(jīng)網(wǎng)絡(luò)的最基本結(jié)構(gòu)有卷積,一般情況下,
    的頭像 發(fā)表于 10-21 09:42 ?753次閱讀
    <b class='flag-5'>卷積</b>神經(jīng)網(wǎng)絡(luò)中的<b class='flag-5'>池</b><b class='flag-5'>化</b>方式