0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

為什么卷積神經(jīng)網(wǎng)絡可以做到不變性特征提?。?/h1>

圖像特征

傳統(tǒng)的圖像特征提取(特征工程)主要是基于各種先驗模型,通過提取圖像關鍵點、生成描述子特征數(shù)據(jù)、進行數(shù)據(jù)匹配或者機器學習方法對特征數(shù)據(jù)二分類/多分類實現(xiàn)圖像的對象檢測與識別。卷積神經(jīng)網(wǎng)絡通過計算機自動提取特征(表示工程)實現(xiàn)圖像特征的提取與抽象,通過MLP實現(xiàn)數(shù)據(jù)的回歸與分類。二者提取的特征數(shù)據(jù)都具不變性特征。

卷積神經(jīng)網(wǎng)絡為什么能提取到圖像特征,其關鍵在于卷積神經(jīng)網(wǎng)絡有兩種不同類型的層

-卷積層(convolution layers/detection layers)

-池化層(pooling layers)

卷積層

卷積層是一系列濾波器集合(filters set)、它的輸出結果被稱為特征映射(feature maps),每個feature map都一個filter在圖像上卷積得到的輸出。一般情況下都會輸出結果加線性修正,對卷積層常用就是ReLU

2d64cf44-b4a9-11eb-bf61-12bb97331649.png

這樣做的好處是:

卷積是一個線性操作,我們需要一個非線性組合,否則兩個卷積卷積層還不如一個卷積層

兩個相反方向的邊緣不應該被取消

使圖像梯度值更加的稀疏、有助于提高反向傳播的效果

假設灰度輸入圖像,有兩個filter,卷積層生成過程如下所示:

假設灰度輸入圖像,有兩個filter,卷積層生成過程如下所示:

2d7ddbf6-b4a9-11eb-bf61-12bb97331649.jpg

膨脹卷積

通常我們常見的卷積層操作使用的filter都是基于連續(xù)鄰近像素的,除了這種卷積filter之后另外還有一張卷積filter被稱為膨脹卷積,其算子的分布更加的稀疏,圖示如下:

2daca210-b4a9-11eb-bf61-12bb97331649.jpg

膨脹卷積在不增加網(wǎng)絡參數(shù)的情況下,提升每個感受野的尺度大小。

1x1卷積

1x1的卷積首次使用是在Network In Network網(wǎng)絡模型中,后來受到越來越多的關注,在一般情況下我們的卷積是2D的,1x1的卷積操作是毫無意義的,但是對卷積神經(jīng)網(wǎng)絡來說,它的卷積層是三維的,所以1x1的卷積操作是有意義的。

卷積層大小計算

對于一個輸入大小WxW的feature map,假設Filter的大小位FxF,卷積時填充邊緣P個像素、卷積步長(stride)為S則輸出的大小為:

2df5cde6-b4a9-11eb-bf61-12bb97331649.png

在多數(shù)深度學習框架中支持兩種輸出大小計算:

padding = “same”

意味著使用填充邊緣的方式,輸出大小與輸入的feature map大小保持不變

padding = “valid”

意味著不使用邊緣填充,即P=0此時輸出大小為:

2e20e58a-b4a9-11eb-bf61-12bb97331649.png

池化層

在卷積層提取到的特征數(shù)據(jù)不具備空間不變性(尺度與遷移不變性特征),只有通過了池化層之后才會具備空間不變性特征。池化層是針對每個feature map進行池化操作,池化操作的窗口大小可以指定為任意尺寸,主要有兩種類型的池化操作

-下采樣池化(均值池化)

-最大值池化

下采樣池化

2e2d8272-b4a9-11eb-bf61-12bb97331649.png

對每個窗口大小取均值,然后乘以標量beta加上我們增益偏置b的輸出

最大值池化

2e48523c-b4a9-11eb-bf61-12bb97331649.png

無論是選擇哪種池化方式都會輸出一個新低分辨率feature map,多數(shù)時候這個過程中會包含一定的信息損失,所以卷積神經(jīng)網(wǎng)絡一般通過擴展深度(增加feature map的數(shù)量)來補償。

重疊窗口與稀疏窗口

在進行池化的時候我們如果選擇步長=1進行池化,通過這樣的池化方式輸出的結果我們稱為重疊池化輸出,它不利于特征的稀疏生成,重疊窗口池化與均值池化都有這樣的缺點,所以經(jīng)常采樣的是最大值池化,同時不會進行窗口重疊,有實驗結果表明,在卷積層保持相同feature map與參數(shù)的情況下,最大值池化的結果明顯優(yōu)于重疊池化與均值池化,而且網(wǎng)絡的深度越深,兩者之間的準確度差異越大。

總結

最終卷積神經(jīng)網(wǎng)絡經(jīng)過池化層操作對單位像素遷移和亮度影響進行了校正,做到了圖像的遷移與亮度不變性的特征提取、而且在池化過程中通過不斷的降低圖像分辨率,構建了圖像的多尺度特征,所以還具備尺度空間不變性,完成了圖像不變性特征提取工作。

原文標題:卷積神經(jīng)網(wǎng)絡是如何實現(xiàn)不變性特征提取的?

文章出處:【微信公眾號:新機器視覺】歡迎添加關注!文章轉載請注明出處。

責任編輯:haq

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴

原文標題:卷積神經(jīng)網(wǎng)絡是如何實現(xiàn)不變性特征提取的?

文章出處:【微信號:vision263com,微信公眾號:新機器視覺】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    卷積神經(jīng)網(wǎng)絡的應用場景及優(yōu)缺點

    1.1 卷積神經(jīng)網(wǎng)絡的定義 卷積神經(jīng)網(wǎng)絡是一種深度學習模型,它通過模擬人類視覺系統(tǒng)的工作方式,對輸入數(shù)據(jù)進行特征提取和分類。與傳統(tǒng)的
    的頭像 發(fā)表于 07-11 14:45 ?241次閱讀

    卷積神經(jīng)網(wǎng)絡的基本概念、原理及特點

    的基本概念、原理、特點以及在不同領域的應用情況。 一、卷積神經(jīng)網(wǎng)絡的基本概念 卷積神經(jīng)網(wǎng)絡是一種深度學習算法,它由多層卷積層和池化層堆疊而成
    的頭像 發(fā)表于 07-11 14:38 ?384次閱讀

    卷積神經(jīng)網(wǎng)絡實現(xiàn)示例

    卷積神經(jīng)網(wǎng)絡(Convolutional Neural Network,簡稱CNN)是一種深度學習模型,主要用于處理具有網(wǎng)格結構的數(shù)據(jù),如圖像。CNN通過卷積層自動提取圖像
    的頭像 發(fā)表于 07-03 10:51 ?273次閱讀

    卷積神經(jīng)網(wǎng)絡的實現(xiàn)原理

    、訓練過程以及應用場景。 卷積神經(jīng)網(wǎng)絡的基本原理 1.1 卷積操作 卷積神經(jīng)網(wǎng)絡的核心是卷積操作
    的頭像 發(fā)表于 07-03 10:49 ?388次閱讀

    卷積神經(jīng)網(wǎng)絡分類方法有哪些

    ,包括基本原理、常見架構、優(yōu)化策略、應用場景等。 1. 卷積神經(jīng)網(wǎng)絡的基本原理 卷積神經(jīng)網(wǎng)絡是一種前饋神經(jīng)網(wǎng)絡,其核心思想是通過
    的頭像 發(fā)表于 07-03 09:40 ?265次閱讀

    卷積神經(jīng)網(wǎng)絡的基本結構和工作原理

    和工作原理。 1. 引言 在深度學習領域,卷積神經(jīng)網(wǎng)絡是一種非常重要的模型。它通過模擬人類視覺系統(tǒng),能夠自動學習圖像中的特征,從而實現(xiàn)對圖像的識別和分類。與傳統(tǒng)的機器學習方法相比,CNN具有更強的
    的頭像 發(fā)表于 07-03 09:38 ?246次閱讀

    cnn卷積神經(jīng)網(wǎng)絡分類有哪些

    卷積神經(jīng)網(wǎng)絡概述 卷積神經(jīng)網(wǎng)絡(Convolutional Neural Network,簡稱CNN)是一種深度學習模型,由多層卷積層和池
    的頭像 發(fā)表于 07-03 09:28 ?320次閱讀

    卷積神經(jīng)網(wǎng)絡訓練的是什么

    、訓練過程以及應用場景。 1. 卷積神經(jīng)網(wǎng)絡的基本概念 1.1 卷積神經(jīng)網(wǎng)絡的定義 卷積神經(jīng)網(wǎng)絡
    的頭像 發(fā)表于 07-03 09:15 ?219次閱讀

    卷積神經(jīng)網(wǎng)絡的原理與實現(xiàn)

    核心思想是通過卷積操作提取輸入數(shù)據(jù)的特征。與傳統(tǒng)的神經(jīng)網(wǎng)絡不同,卷積神經(jīng)網(wǎng)絡具有參數(shù)共享和局部連
    的頭像 發(fā)表于 07-02 16:47 ?324次閱讀

    卷積神經(jīng)網(wǎng)絡的基本原理和應用范圍

    和應用范圍。 一、卷積神經(jīng)網(wǎng)絡的基本原理 1. 卷積層(Convolutional Layer) 卷積層是CNN的核心組成部分,其主要功能是提取
    的頭像 發(fā)表于 07-02 15:30 ?524次閱讀

    卷積神經(jīng)網(wǎng)絡的基本結構及其功能

    。 引言 深度學習是機器學習的一個分支,它通過模擬人腦神經(jīng)網(wǎng)絡的結構和功能,實現(xiàn)對數(shù)據(jù)的自動學習和特征提取。卷積神經(jīng)網(wǎng)絡是深度學習中的一種重要模型,它通過
    的頭像 發(fā)表于 07-02 14:45 ?532次閱讀

    卷積神經(jīng)網(wǎng)絡的基本原理、結構及訓練過程

    、訓練過程以及應用場景。 一、卷積神經(jīng)網(wǎng)絡的基本原理 卷積運算 卷積運算是卷積神經(jīng)網(wǎng)絡的核心,它
    的頭像 發(fā)表于 07-02 14:21 ?1031次閱讀

    卷積神經(jīng)網(wǎng)絡通俗理解

    學習(deeplearning)的代表算法之一 ,卷積神經(jīng)網(wǎng)絡具有表征學習(representation learning)能力,能夠按其階層結構對輸入信息進行平移不變分類
    的頭像 發(fā)表于 11-26 16:26 ?887次閱讀

    卷積神經(jīng)網(wǎng)絡中的池化方式

    卷積神經(jīng)網(wǎng)絡的最基本結構有卷積層跟池化層,一般情況下,池化層的作用一般情況下就是下采樣與像素遷移不變性。根據(jù)步長區(qū)分,池化可以分為重疊池化與
    的頭像 發(fā)表于 10-21 09:42 ?753次閱讀
    <b class='flag-5'>卷積</b><b class='flag-5'>神經(jīng)網(wǎng)絡</b>中的池化方式

    基于卷積神經(jīng)網(wǎng)絡的雙重特征提取方法

    機器學習技術已被廣泛接受,并且很適合此類分類問題?;?b class='flag-5'>卷積神經(jīng)網(wǎng)絡的雙重特征提取方法。提出的模型使用Radon拉冬變換進行第一次特征提取,然后將此
    發(fā)表于 10-16 11:30 ?532次閱讀
    基于<b class='flag-5'>卷積</b><b class='flag-5'>神經(jīng)網(wǎng)絡</b>的雙重<b class='flag-5'>特征提取</b>方法