0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

語義分割、分類與定位、目標檢測、實例分割幾個應(yīng)用程序和方法

Dbwd_Imgtec ? 來源:未知 ? 作者:李倩 ? 2018-09-05 15:35 ? 次閱讀

【導(dǎo)讀】神經(jīng)網(wǎng)絡(luò)計算機視覺領(lǐng)域有著廣泛的應(yīng)用。只要稍加變形,同樣的工具和技術(shù)就可以有效地應(yīng)用于廣泛的任務(wù)。在本文中,我們將介紹其中的幾個應(yīng)用程序和方法,包括語義分割、分類與定位、目標檢測、實例分割。

Detection andSegmentation through ConvNets

——計算機視覺-目標檢測與分割

神經(jīng)網(wǎng)絡(luò)在計算機視覺領(lǐng)域有著廣泛的應(yīng)用。只要稍加變形,同樣的工具和技術(shù)就可以有效地應(yīng)用于廣泛的任務(wù)。在本文中,我們將介紹其中的幾個應(yīng)用程序和方法。最常見的四個是:

語義分割(Semantic segmentation)

分類與定位(Classification and localization)

目標檢測(Object detection)

實例分割(Instance segmentation)

1、語義分割

我們輸入圖像并輸出每個像素的類別決策。換句話說,我們希望將每個像素劃分為幾個可能的類別之一。這意味著,所有攜帶綿羊的像素都會被分類為一個類別,有草和道路的像素也會被分類。更重要的是,輸出不會區(qū)分兩種不同的綿羊。

解決這個問題的一個可能的方法是把它當(dāng)作一個滑動窗口的分類問題[1]。這樣我們就把輸入圖像分解成幾個大小相同的crop。然后每一種crop都會被傳送給CNN,作為輸出得到該crop的分類類別。像素級的crop會對每一個像素進行分類。這是非常容易的,不是嗎?

滑動窗口的語義分割

嗯,甚至不需要研究生學(xué)位就能看出這種方法在實際中的計算效率有多低。我們需要的是一種盡量將圖像的傳送次數(shù)減少到單道的方法。幸運的是,有一些技術(shù)可以用所有卷積層來同時對所有像素進行預(yù)測。

語義分割的全卷積層

如你所見,這樣的網(wǎng)絡(luò)將是下采樣和上采樣層的混合,以保持輸入圖像的空間大小(在像素級進行預(yù)測)。下采樣是通過使用strides或max/avg pooling來實現(xiàn)的。另一方面,上采樣需要使用一些巧妙的技術(shù),其中兩個是-最近鄰[2]和轉(zhuǎn)置卷積[3]。

上采樣技術(shù)

簡而言之,最近鄰只是在它的接受域中復(fù)制特定元素(在上面的例子中是2x2)。另一方面,轉(zhuǎn)置卷積努力學(xué)習(xí)適當(dāng)?shù)臋?quán)重,為濾波器執(zhí)行上采樣。在這里,我們從左上角值開始,這是一個標量,與過濾器相乘,并將這些值復(fù)制到輸出單元格中。然后,我們將濾波器中的一些特定像素與輸入中的一個像素成比例地移動。這就是輸出和輸入之間的比率,這將給我們提供我們想要使用的步幅。在有重疊的情況下,我們只對數(shù)值進行匯總。這樣,這些過濾器也構(gòu)成了這些網(wǎng)絡(luò)的可學(xué)習(xí)參數(shù),而不是一些固定的值集,就像最近的鄰居一樣。最后,利用像素級的交叉熵損失[4]對整個網(wǎng)絡(luò)進行反向傳播訓(xùn)練[5]。

2、分類和定位

圖像分類[6]處理的是將類別標簽分配給圖像。但是有時,除了預(yù)測類別之外,我們還感興趣的是該對象在圖像中的位置。從數(shù)學(xué)的角度來說,我們可能希望在圖像的頂部畫一個包圍框。幸運的是,我們可以重用圖像分類學(xué)到的所有工具和技術(shù)。

用于分類定位的卷積網(wǎng)絡(luò)

我們首先將輸入圖像輸入到某個巨大的ConvNet中,這將給出每個類別的分數(shù)。但是現(xiàn)在我們有了另一個完全連接的層,它從先前層次生成的特征Map中預(yù)測對象的邊界框坐標(x,y坐標以及高度和寬度)。因此,我們的網(wǎng)絡(luò)將產(chǎn)生兩個輸出,一個對應(yīng)于圖像類,另一個對應(yīng)于邊界。為了訓(xùn)練這個網(wǎng)絡(luò),我們必須考慮兩個損失:分類的交叉熵損失和邊界預(yù)測的L1/L2損失[7](某種回歸損失)。

廣義上,這種預(yù)測固定數(shù)目集的思想可以應(yīng)用于除定位以外的各種計算機視覺任務(wù),如人體姿態(tài)估計。

人體姿態(tài)估計

在這里,我們可以定義人體姿勢的固定點集上的身體,例如關(guān)節(jié)。然后將我們的圖像輸入到ConvNet并輸出相同的固定點集(x,y)坐標。然后我們可以在每一點上應(yīng)用某種回歸損失來通過反向訓(xùn)練來訓(xùn)練網(wǎng)絡(luò).

3、目標檢測

目標檢測的思想是從我們感興趣的一組固定類別開始,每當(dāng)這些類別中的任何一種出現(xiàn)在輸入圖像中時,我們就會在圖像周圍畫出包圍框,并預(yù)測它的類標簽。這與圖像分類和定位的不同之處在于,在前一種意義上,我們只對單個對象進行分類和繪制邊框。而在后一種情況下,我們無法提前知道圖像中期望的對象數(shù)量。同樣,我們也可以采用蠻力滑動窗口方法[8]來解決這個問題。然而,這又是一種計算效率低下的問題,很少有算法能有效地解決這一問題,比如基于Region proposal的算法,及基于yolo目標檢測的算法[9]。

基于Region proposal的算法

給定一個輸入圖像,一個Regionproposal算法會給出成千上萬個可能出現(xiàn)對象的框。當(dāng)然,在沒有對象的情況下,輸出框中存在噪聲的可能性。但是,如果圖像中有任何對象,該算法就會選擇它作為候選框。

區(qū)域搜索的選擇性搜索

為了使所有的候選框都是一樣大小的,我們需要把它們變形到固定的方格大小,這樣我們最終就可以給網(wǎng)絡(luò)輸入了。然后,我們可以將一個巨大的ConvNets應(yīng)用到從region proposal輸出的每個候選框中以獲得最終類別。當(dāng)然,與蠻力滑動窗口算法相比,它最終的計算效率要高得多。這就是R-CNN背后的整個想法。為了進一步降低復(fù)雜度,采用Fast R-CNN的方法,F(xiàn)ast R-CNN的思想首先是通過ConvNet傳遞輸入圖像,得到高分辨率的特征圖,然后將這些region proposals強加到這個特征圖上,而不是實際的圖像上。這使得我們可以在有大量crops的情況下,在整個圖像中重用大量代價昂貴的卷積運算。

YOLO(You only look once)

YOLO目標檢測

Yolo背后的想法是,不要在所有提議的區(qū)域進行獨立的處理,而是將所有的預(yù)測都重組為一個單一的回歸問題,從圖像像素到包圍框坐標和分類概率。

我們首先將整個輸入圖像劃分為SXS網(wǎng)格,每個網(wǎng)格單元與b邊界(x,y,w,h)一起預(yù)測c條件的類概率(Pr(Class | Object)),每個邊界盒(x,y,w,h)都有一個置信度分數(shù)。(x,y)坐標表示邊框的中心相對于網(wǎng)格單元格的邊界,而寬度和高度則是相對于整個圖像預(yù)測。概率是以包含對象的網(wǎng)格單元為條件的。我們只預(yù)測每個網(wǎng)格單元格的一組類概率,而不管方框B的數(shù)量。置信度分數(shù)反映了模型對框中包含對象的信心程度,如果框中沒有對象,則置信度必須為零。在另一個極端,置信度應(yīng)與預(yù)測框與ground truth標簽之間的交集(IOU)相同。

Confidence score =Pr(Object) * IOU

在測試時,我們將條件類概率和單個邊框置信度預(yù)測相乘,這給出了每個框的特定類別的置信度分數(shù)。這些分數(shù)既編碼了該類出現(xiàn)在盒子中的概率,也表示了預(yù)測的盒適合對象的程度。

Pr(Class | Object) ?(Pr(Object) ? IOU) = Pr(Class) ? IOU

4、實例分割

實例分割采用語義分割和目標檢測相結(jié)合的技術(shù)。給定一幅圖像,我們希望預(yù)測該圖像中目標的位置和身份(類似于目標檢測),但是,與其預(yù)測這些目標的邊界框,不如預(yù)測這些目標的整個分割掩碼,即輸入圖像中的哪個像素對應(yīng)于哪個目標實例。在此基礎(chǔ)上,我們對圖像中的每一只綿羊分別得到了分割掩碼,而語義分割中所有的綿羊都得到了相同的分割掩碼。

基于Mask R-CNN的實例分割

Mask R-CNN是這類任務(wù)的首選網(wǎng)絡(luò)。在這個多階段的處理任務(wù)中,我們通過一個ConvNet和一些學(xué)習(xí)region proposal網(wǎng)絡(luò)傳遞輸入圖像。一旦我們有了這些region proposal,我們就把這些proposals投影到卷積特征圖上,就像我們在R-CNN的情況下所做的那樣。然而現(xiàn)在,除了進行分類和邊界框預(yù)測之外,我們還預(yù)測了每個region proposal的分割掩碼。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴

原文標題:【計算機視覺】檢測與分割詳解

文章出處:【微信號:Imgtec,微信公眾號:Imagination Tech】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    目標檢測和圖像語義分割領(lǐng)域性能評價指標

    目標檢測和圖像語義分割領(lǐng)域的性能評價指標
    發(fā)表于 05-13 09:57

    聚焦語義分割任務(wù),如何用卷積神經(jīng)網(wǎng)絡(luò)處理語義圖像分割?

    CNN架構(gòu)圖像語義分割 圖像分割是根據(jù)圖像內(nèi)容對指定區(qū)域進行標記的計算機視覺任務(wù),簡言之就是「這張圖片里有什么,其在圖片中的位置是什么?」本文聚焦于語義
    發(fā)表于 09-17 15:21 ?521次閱讀

    Facebook AI使用單一神經(jīng)網(wǎng)絡(luò)架構(gòu)來同時完成實例分割語義分割

    這一新架構(gòu)“全景 FPN ”在 Facebook 2017 年發(fā)布的 Mask R-CNN 的基礎(chǔ)上添加了一個用于語義分割的分支。這一新架構(gòu)可以同時對圖像進行實例語義
    的頭像 發(fā)表于 04-22 11:46 ?2785次閱讀
    Facebook AI使用單一神經(jīng)網(wǎng)絡(luò)架構(gòu)來同時完成<b class='flag-5'>實例</b><b class='flag-5'>分割</b>和<b class='flag-5'>語義</b><b class='flag-5'>分割</b>

    語義分割算法系統(tǒng)介紹

    圖像語義分割是圖像處理和是機器視覺技術(shù)中關(guān)于圖像理解的重要任務(wù)。語義分割即是對圖像中每一個像素點進行分類,確定每個點的類別,從而進行區(qū)域劃分
    的頭像 發(fā)表于 11-05 10:34 ?6406次閱讀

    分析總結(jié)基于深度神經(jīng)網(wǎng)絡(luò)的圖像語義分割方法

    隨著深度學(xué)習(xí)技術(shù)的快速發(fā)展及其在語義分割領(lǐng)域的廣泛應(yīng)用,語義分割效果得到顯著提升。對基于深度神經(jīng)網(wǎng)絡(luò)的圖像語義
    發(fā)表于 03-19 14:14 ?21次下載
    分析總結(jié)基于深度神經(jīng)網(wǎng)絡(luò)的圖像<b class='flag-5'>語義</b><b class='flag-5'>分割</b><b class='flag-5'>方法</b>

    基于深度神經(jīng)網(wǎng)絡(luò)的圖像語義分割方法

    對應(yīng)用于圖像語義分割的幾種深度神經(jīng)網(wǎng)絡(luò)模型進行簡單介紹,接著詳細闡述了現(xiàn)有主流的基于深度神經(jīng)網(wǎng)絡(luò)的圖像語義分割方法,依據(jù)實現(xiàn)技術(shù)的區(qū)別對圖像
    發(fā)表于 04-02 13:59 ?11次下載
    基于深度神經(jīng)網(wǎng)絡(luò)的圖像<b class='flag-5'>語義</b><b class='flag-5'>分割</b><b class='flag-5'>方法</b>

    基于SEGNET模型的圖像語義分割方法

    使用原始 SEGNET模型對圖像進行語義分割時,未對圖像中相鄰像素點間的關(guān)系進行考慮,導(dǎo)致同一目標中像素點類別預(yù)測結(jié)果不一致。通過在 SEGNET結(jié)構(gòu)中加入一條自上而下的通道,使得 SEGNET包含
    發(fā)表于 05-27 14:54 ?15次下載

    點云分割相較圖像分割的優(yōu)勢是啥?

    自動駕駛領(lǐng)域的下游任務(wù),我認為主要包括目標檢測、語義分割、實例分割和全景
    的頭像 發(fā)表于 12-14 14:25 ?2487次閱讀

    圖像語義分割的概念與原理以及常用的方法

    從最簡單的像素級別“閾值法”(Thresholding methods)、基于像素聚類的分割方法(Clustering-based segmentation methods)到“圖劃分”的分割
    的頭像 發(fā)表于 04-20 10:01 ?3808次閱讀

    語義分割數(shù)據(jù)集:從理論到實踐

    語義分割是計算機視覺領(lǐng)域中的一個重要問題,它的目標是將圖像或視頻中的語義信息(如人、物、場景等)從背景中分離出來,以便于進行目標
    的頭像 發(fā)表于 04-23 16:45 ?821次閱讀

    AI算法說-圖像分割

    語義分割是區(qū)分同類物體的分割任務(wù),實例分割是區(qū)分不同實例
    的頭像 發(fā)表于 05-17 14:44 ?1160次閱讀
    AI算法說-圖像<b class='flag-5'>分割</b>

    PyTorch教程-14.9. 語義分割和數(shù)據(jù)集

    劃分為屬于不同語義類的區(qū)域。與目標檢測不同,語義分割在像素級別識別和理解圖像中的內(nèi)容:它對語義區(qū)
    的頭像 發(fā)表于 06-05 15:44 ?548次閱讀
    PyTorch教程-14.9. <b class='flag-5'>語義</b><b class='flag-5'>分割</b>和數(shù)據(jù)集

    圖像分割語義分割中的CNN模型綜述

    圖像分割語義分割是計算機視覺領(lǐng)域的重要任務(wù),旨在將圖像劃分為多個具有特定語義含義的區(qū)域或?qū)ο蟆>矸e神經(jīng)網(wǎng)絡(luò)(CNN)作為深度學(xué)習(xí)的一種核心模型,在圖像
    的頭像 發(fā)表于 07-09 11:51 ?336次閱讀

    圖像分割語義分割的區(qū)別與聯(lián)系

    圖像分割語義分割是計算機視覺領(lǐng)域中兩個重要的概念,它們在圖像處理和分析中發(fā)揮著關(guān)鍵作用。 1. 圖像分割簡介 圖像分割是將圖像劃分為多個區(qū)
    的頭像 發(fā)表于 07-17 09:55 ?327次閱讀

    圖像語義分割的實用性是什么

    什么是圖像語義分割 圖像語義分割是一種將圖像中的所有像素點按照其語義類別進行分類的任務(wù)。與傳統(tǒng)
    的頭像 發(fā)表于 07-17 09:56 ?228次閱讀