0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

UNet++與Ronneberger的U-Net進行比較

新機器視覺 ? 來源:新機器視覺 ? 2023-05-31 11:36 ? 次閱讀


  導讀

使用一系列的網(wǎng)格狀的密集跳躍路徑來提升分割的準確性。

在這篇文章中,我們將探索UNet++: A Nested U-Net Architecture for Medical Image Segmentation這篇文章,作者是亞利桑那州立大學的Zhou等人。本文是U-Net的延續(xù),我們將把UNet++與Ronneberger等人的U-Net原始文章進行比較。

UNet++的目標是通過在編碼器和解碼器之間加入Dense block和卷積層來提高分割精度。

分割的準確性對于醫(yī)學圖像至關重要,因為邊緣分割錯誤會導致不可靠的結果,從而被拒絕用于臨床中。

醫(yī)學成像設計的算法必須在數(shù)據(jù)樣本較少的情況下實現(xiàn)高性能和準確性。獲取這些樣本圖像來訓練模型可能是一個消耗資源的過程,因為需要由專業(yè)人員審查的高質量、未壓縮和精確注釋的圖像。

UNet++里有什么新東西?

下面是UNet++和U-Net架構的示意圖。

1eec231a-fc80-11ed-90ce-dac502259ad0.jpg

UNet++ 在原始的U-Net上加了3個東西:

重新設計的跳躍路徑(顯示為綠色)

密集跳躍連接(顯示為藍色)

深度監(jiān)督(顯示為紅色)

重新設計的跳躍路徑

1efd64d6-fc80-11ed-90ce-dac502259ad0.png

在UNet++中,增加了重新設計的跳躍路徑(綠色顯示),以彌補編碼器和解碼器子路徑之間的語義差別。

這些卷積層的目的是減少編碼器和解碼器子網(wǎng)絡的特征映射之間的語義差距。因此,對于優(yōu)化器來說,這可能是一個更直接的優(yōu)化問題。

U-Net采用跳躍連接,直接連接編碼器和解碼器之間的特征映射,導致把語義上不相似的特征映射相融合。

然而,在UNet++中,相同dense block的前一個卷積層的輸出與較低層dense block對應的上采樣輸出進行融合。這使得已編碼特征的語義級別更接近于等待在解碼器中的特征映射的語義級別,因此,當接收到語義上相似的特征映射時,優(yōu)化更容易。

跳躍路徑上的所有卷積層使用大小為3×3的核。

密集跳躍連接

1efd64d6-fc80-11ed-90ce-dac502259ad0.png

在UNet++中,密集跳躍連接(用藍色顯示)實現(xiàn)了編碼器和解碼器之間的跳躍路徑。這些Dense blocks是受到DenseNet的啟發(fā),目的是提高分割精度和改善梯度流。

密集跳躍連接確保所有先驗特征圖都被累積,并通過每個跳躍路徑上的dense卷積塊而到達當前節(jié)點。這將在多個語義級別生成完整分辨率的特征映射。

深度監(jiān)督

1f4a3b8a-fc80-11ed-90ce-dac502259ad0.png

UNet++中增加了深度監(jiān)督(紅色顯示),通過修剪模型來調整模型的復雜性,在速度(推理時間)和性能之間實現(xiàn)平衡。

對于accurate模式,所有分割分支的輸出進行平均。

對于fast模式,最終的分割圖從分割分支之一選擇。

Zhou等人進行了實驗,以確定在不同剪枝水平下的最佳分割性能。使用的度量是IoU和推理時間。

他們試驗了四種分割任務:a)細胞核,b)結腸息肉,c)肝臟,d)肺結節(jié)。結果如下:

1f633da6-fc80-11ed-90ce-dac502259ad0.png

L3與L4相比,平均減少了32.2%的推理時間,同時IoU略微降低了。

更激進的修剪方法,如L1和L2,可以進一步減少推理時間,但以顯著的分割性能為代價。

在使用UNet++時,我們可以調整用例的層數(shù)。

在UNet++上的實驗

我使用Drishti-GS數(shù)據(jù)集,這與Ronneberger等人在他們的論文中使用的不同。該數(shù)據(jù)集包含101幅視網(wǎng)膜圖像,以及用于檢測青光眼的光學disc和光學cup的mask標注。青光眼是世界上致盲的主要原因之一。50張圖片用于訓練,51張用于驗證。

度量

我們需要一組指標來比較不同的模型,這里我們有二元交叉熵,Dice 系數(shù)和IoU。

二元交叉熵

二分類的常用度量和損失函數(shù),用于度量誤分類的概率。

我們將使用PyTorch的binary_cross_entropy_with_logits函數(shù),與Dice系數(shù)一起作為損失函數(shù)對模型進行訓練。

Dice 系數(shù)

1f8d3138-fc80-11ed-90ce-dac502259ad0.jpg

對預測值和實際值之間重疊的通用的度量。計算方法為 2 × 預測值與ground truth的重疊面積除以預測值與ground truth之和的總面積。

這個度量指標的范圍在0到1之間,其中1表示完全重疊。

我使用這個度量和二元交叉熵作為訓練模型的損失函數(shù)。

IoU

1faf57e0-fc80-11ed-90ce-dac502259ad0.jpg

一個簡單(但有效!)的度量來計算預測的mask與ground truth mask的準確性。計算預測值與ground truth的重疊面積,并除以預測值與ground truth的并集面積。

類似于Dice系數(shù),這個度量指標的范圍是從0到1,其中0表示沒有重疊,而1表示預測與地面真實之間完全重疊。

訓練和結果

優(yōu)化這個模型,訓練50多個epoch,使用Adam優(yōu)化器,學習率1e-4,學習率衰減率為沒10個epochs乘以0.1, 損失函數(shù)是二元交叉熵和Dice 系數(shù)的組合。

模型在27分鐘內完成了36.6M可訓練參數(shù)的訓練,每個epoch大約需要32秒。

1fbaa23a-fc80-11ed-90ce-dac502259ad0.png

表現(xiàn)最好的epoch是第45個epoch(在50個epochs中)。

二元交叉熵:0.2650

Dice系數(shù):0.8104

IoU:0.8580

幾個U-Net模型之間的指標進行比較,如下所示。

1fd1bdd0-fc80-11ed-90ce-dac502259ad0.png

測試首先通過模型處理一些沒見過的樣本,來預測光學disc(紅色)和光學cup(黃色)。這里是UNet++和U-Net的測試結果對比。

![](Biomedical Image Segmentation UNet++.assets/1_jhyAYAhCHizWt2qkGJmkEg.jpeg)

從指標表來看,UNet++在IoU上超越U-Net,但在Dice系數(shù)上表現(xiàn)較差。從定性測試的結果來看,UNet++成功地對第一張圖像進行了正確的分割,而U-Net做得并不好。也由于UNet++的復雜性,訓練時間是U-Net的兩倍。必須根據(jù)它們的數(shù)據(jù)集評估每種方法。

總結

UNet++的目標是提高分割精度,通過一系列嵌套的,密集的跳躍路徑來實現(xiàn)。重新設計的跳躍路徑使語義相似的特征映射更容易優(yōu)化。密集的跳躍連接提高了分割精度,改善了梯度流。深度監(jiān)督允許模型復雜性調優(yōu),以平衡速度和性能優(yōu)化。

審核編輯:彭靜
聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 編碼器
    +關注

    關注

    45

    文章

    3573

    瀏覽量

    133980
  • 訓練模型
    +關注

    關注

    1

    文章

    35

    瀏覽量

    3794

原文標題:醫(yī)學圖像分割:UNet++

文章出處:【微信號:vision263com,微信公眾號:新機器視覺】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    van-自然和醫(yī)學圖像的深度語義分割:網(wǎng)絡結構

    :醫(yī)學影像是具有多種模態(tài)的;可解釋性:醫(yī)生需要進一步指導病灶在哪一層,哪一層的哪個位置,分割結果能求體積么?而且U-Net在自然圖像分割也取得了不錯的效果。需要注意的一點:Unet融合淺層信息
    發(fā)表于 12-28 11:03

    van-自然和醫(yī)學圖像的深度語義分割:網(wǎng)絡結構

    :醫(yī)學影像是具有多種模態(tài)的;可解釋性:醫(yī)生需要進一步指導病灶在哪一層,哪一層的哪個位置,分割結果能求體積么?而且U-Net在自然圖像分割也取得了不錯的效果。需要注意的一點:Unet融合淺層信息
    發(fā)表于 12-28 11:06

    一種基于Deep U-Net的多任務學習框架

    U-Net進行后期處理,得到的Dice分數(shù)為0.901。這個多任務U-Net算法比其他兩種算法具有更強的魯棒性,通過與分割和相關的消融前后分類共享特征,網(wǎng)絡被迫學習更好的表示,以獲得更好的分割結果
    發(fā)表于 11-10 15:35

    CDMA網(wǎng)絡規(guī)劃覆蓋分析的仿真技術

    本文針對CDMA網(wǎng)絡覆蓋的復雜特點,對網(wǎng)絡的規(guī)劃中的覆蓋分析做了詳細的研究,在仿真關鍵參數(shù)核心步驟上提出了一些新的方法,最后在U-Net仿真系統(tǒng)中對提出的方法進行分析比較
    發(fā)表于 08-25 13:53 ?3762次閱讀
    CDMA網(wǎng)絡規(guī)劃覆蓋分析的仿真技術

    主要語義分割網(wǎng)絡:FCN,SegNet,U-Net以及一些半監(jiān)督方法

    我們將當前分類網(wǎng)絡(AlexNet, VGG net 和 GoogLeNet)修改為全卷積網(wǎng)絡,通過對分割任務進行微調,將它們學習的表征轉移到網(wǎng)絡中。然后,我們定義了一種新架構,它將深的、粗糙的網(wǎng)絡層語義信息和淺的、精細的網(wǎng)絡層的表層信息結合起來,來生成精確的分割。
    的頭像 發(fā)表于 06-03 09:53 ?10.6w次閱讀

    圖像分割的背景知識

    U-Net是一種卷積神經(jīng)網(wǎng)絡,最初是為分割生物醫(yī)學圖像而開發(fā)的。當它被可視化的時候,它的架構看起來像字母U,因此被命名為U-Net。其體系結構由兩部分組成,左側為收縮路徑,右側為擴展路徑。收縮路徑的目的是獲取上下文,而擴展路徑的
    的頭像 發(fā)表于 12-28 14:22 ?2433次閱讀

    基于改進U-Net網(wǎng)絡建立HU-ResNet模型

    針對混凝土結構表觀裂縫檢測準確率低、細節(jié)信息丟失及精度不髙等問題,提出一種利用HU-RεsNet卷積神經(jīng)網(wǎng)絡的混凝土表觀裂縫檢測方法?;诟倪MU-Net網(wǎng)絡建立HU- Resnet模型,采用經(jīng)
    發(fā)表于 03-17 10:12 ?12次下載
    基于改進<b class='flag-5'>U-Net</b>網(wǎng)絡建立HU-ResNet模型

    基于U-Net的多尺度循環(huán)卷積神經(jīng)網(wǎng)絡

    喉白斑屬于癌前組織病變,準確檢測該病灶對癌變預防和病變治療至關重要,但喉鏡圖像中病灶邊界模糊且表面反光導致其不易分割。為此,提出一種基于U-Net的多尺度循環(huán)卷積神經(jīng)網(wǎng)絡(MRU-Net)進行
    發(fā)表于 03-24 11:14 ?5次下載
    基于<b class='flag-5'>U-Net</b>的多尺度循環(huán)卷積神經(jīng)網(wǎng)絡

    利用變分推斷進行分割置信度的預測

    在目前的文獻中主要利用兩種技術成功地解決了醫(yī)學圖像的分割問題,一種是利用全卷積網(wǎng)絡(FCN),另一種是基于U-Net的技術。FCN體系結構的主要特點是在最后沒有使用已成功用于圖像分類問題的全連接層。另一方面,U-Net使用一種編碼器-解碼器架構,在編碼器中有池化層,在解碼
    的頭像 發(fā)表于 03-29 13:46 ?1895次閱讀
    利用變分推斷<b class='flag-5'>進行</b>分割置信度的預測

    利用可分離殘差卷積和語義補償?shù)?b class='flag-5'>U-Net裂縫分割

    壩面缺陷檢測是水利樞紐安全巡檢的關鍵環(huán)節(jié),但復雜環(huán)境下壩面圖像存在干擾噪聲大和像素不均衡等冋題造成壩面裂縫難以精細分割。提出一種利用可分離殘差卷積和語義補償?shù)?b class='flag-5'>U-Net裂縫分割方法。在U-Net網(wǎng)絡
    發(fā)表于 05-24 16:40 ?8次下載

    基于U-net分割的遙感圖像配準方法

    在利用航拍遙感圖像進行土地測量與變化檢測時,需要對圖像進行配準處理。為實現(xiàn)目標區(qū)域的高精度匹配,提出一種遙感圖像配準方法。對圖像進行U-net分割,以適用于小樣本數(shù)據(jù)集的處理,針對不同
    發(fā)表于 05-28 14:41 ?2次下載

    UNetUNet++:醫(yī)學影像經(jīng)典分割網(wǎng)絡對比

    從技術角度來看,如果我們考慮語義分割問題,對于N×M×3(假設我們有一個RGB圖像)的圖像,我們希望生成對應的映射N×M×k(其中k是類的數(shù)量)。有很多架構可以解決這個問題,但在這里我想談談兩個特定的架構,UnetUnet++
    的頭像 發(fā)表于 04-25 10:38 ?1.4w次閱讀

    UNet與HRNet碰撞會產生怎樣的火花?U-HRNet不做選擇

    U-Net在一定程度上緩解了上述兩個問題。然而,在U-Net中,每個階段只保留一個分辨率,不同尺度之間沒有融合,只有與殘差分支合并。作者認為,HRNet的最大優(yōu)勢是能夠并行維護多尺度并始終執(zhí)行多尺度融合。
    的頭像 發(fā)表于 11-07 14:27 ?1273次閱讀

    為什么需要分割?U-Net能提供什么?U-Net和自編碼器的區(qū)別

    U-Net是一種卷積神經(jīng)網(wǎng)絡(CNN)方法,由Olaf Ronneberger、Phillip Fischer和Thomas Brox于2015年首次提出,它可以更好的分割生物醫(yī)學圖像。
    的頭像 發(fā)表于 11-25 11:38 ?4493次閱讀
    為什么需要分割?<b class='flag-5'>U-Net</b>能提供什么?<b class='flag-5'>U-Net</b>和自編碼器的區(qū)別

    UNet模型屬于哪種神經(jīng)網(wǎng)絡

    U-Net模型屬于卷積神經(jīng)網(wǎng)絡(Convolutional Neural Network, CNN)的一種特殊形式 。它最初由德國弗萊堡大學計算機科學系的研究人員在2015年提出,專為生物醫(yī)學圖像
    的頭像 發(fā)表于 07-24 10:59 ?1970次閱讀