0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于Diffusion Probabilistic Model的醫(yī)學(xué)圖像分割

jf_pmFSk4VX ? 來源:GiantPandaCV ? 2023-05-04 18:14 ? 次閱讀

前言

在前面的一篇文章ICLR 2023:基于 diffusion adversarial representation learning 的血管分割中,我們已經(jīng)介紹過了 diffusion model 在醫(yī)學(xué)圖像分割上的一個(gè)應(yīng)用,推薦對 diffusion model 不了解的同學(xué)優(yōu)先閱讀,其中講了一些基本概念。上一篇文章是將 diffusion 應(yīng)用到自監(jiān)督學(xué)習(xí)中,而 MedSegDiff 是一個(gè)有監(jiān)督的框架,現(xiàn)在已更新到 V2 版本, V2 版本區(qū)別于 V1 使用了 Transformer,且適用于多分類。MedSegDiff-V1 已被接收在 MIDL 2023。

MedSegDiff

MedSegDiff 在原版 DPM 的基礎(chǔ)上引入了動(dòng)態(tài)條件編碼,增強(qiáng) DPM 在醫(yī)學(xué)圖像分割上的分步注意力能力。特征頻率解析器(FF-Parser)可以消除分割過程中損壞的給定掩碼中的高頻噪聲。DPM 是一種生成模型,由兩個(gè)階段組成,正向擴(kuò)散階段和反向擴(kuò)散階段。在正向過程中,通過一系列步驟 T,將高斯噪聲逐漸添加到分割標(biāo)簽 x0 中。在反向過程中,訓(xùn)練神經(jīng)網(wǎng)絡(luò)通過反向噪聲過程來恢復(fù)原始數(shù)據(jù):
wKgZomRThauAIsP6AAAR52ltzUQ421.jpg

其中 theta 是反向過程參數(shù)。從高斯噪聲開始,p(xT) 表示原始圖像,反向過程將潛在變量分布 p(xT) 轉(zhuǎn)換為數(shù)據(jù)分布 p(x0)。反向過程逐步恢復(fù)噪聲圖像,以獲得最終的清晰分割。該模型使用 U-Net 作為學(xué)習(xí)網(wǎng)絡(luò),步長估計(jì)函數(shù)由原始圖像先驗(yàn)條件確定:

wKgaomRThbyAICC3AAATgMu9I7g410.jpg
其中 EI 是條件特征嵌入,即原始圖像嵌入,Ex 是當(dāng)前步驟的分割映射特征嵌入。這兩個(gè)組件被添加并發(fā)送到 U-Net 的解碼器進(jìn)行重建。步長索引 t 與新增的嵌入和解碼器功能集成在一起,使用共享的 look-up table 進(jìn)行嵌入,這在 DDPM 的論文中有介紹。總而言之,MedSegDiff 模型基于 DPM,使用 U-Net 進(jìn)行學(xué)習(xí)。步長估計(jì)函數(shù)由原始圖像先驗(yàn)得到,步長索引與新增的嵌入和解碼器功能集成在一起。使 MedSegDiff 在三項(xiàng)具有不同圖像模式的醫(yī)學(xué)分割任務(wù)中表現(xiàn)不錯(cuò)。先看下 MedSegDiff 整體流程圖:

f7746bea-e6c6-11ed-ab56-dac502259ad0.png

下面我們將逐一介紹動(dòng)態(tài)條件編碼和 FF-Parser。

動(dòng)態(tài)條件編碼

對于 MRI 或超聲之類的低對比度圖像,很難將感興趣的對象與背景分開。所以使用動(dòng)態(tài)條件編碼方法來解決這個(gè)問題??梢宰⒁獾?,原始圖像包含準(zhǔn)確的目標(biāo)分割信息,不過很難與背景區(qū)分開,而當(dāng)前步驟的 grand truth 包含增強(qiáng)的目標(biāo)區(qū)域,但不準(zhǔn)確。

為了整合這兩個(gè)信息來源,使用類似注意力的機(jī)制將條件特征圖的每個(gè)尺度與當(dāng)前步驟的編碼特征融合。這種融合是首先對兩個(gè)特征圖分別應(yīng)用層歸一化,然后將它們相乘以獲得 affine map 來實(shí)現(xiàn)的,再將 affine map 與條件編碼特征相乘以增強(qiáng)注意力區(qū)域。如 MedSegDiff 流程圖所示,此操作應(yīng)用于中間兩個(gè)階段,其中每個(gè)階段都是在 Resnet34 之后實(shí)現(xiàn)的卷積階段。但是,集成當(dāng)前條件編碼功能可能會(huì)產(chǎn)生額外的高頻噪聲。為了解決這個(gè)問題,使用 FF-Parser 來限制特征中的高頻分量。

FF-Parser

FF-Parser 的流程如下圖所示:

f7852048-e6c6-11ed-ab56-dac502259ad0.png

FF-Parser 是頻率濾波器的可學(xué)習(xí)版本,它可以全局調(diào)整特定頻率的分量,以限制高頻分量進(jìn)行自適應(yīng)集成。首先使用二維 FFT(快速傅立葉變換)沿空間維度對解碼器特征圖 m 進(jìn)行變換,生成頻譜 M。然后,將參數(shù)化的注意力地圖 A 與 M 相乘以調(diào)整頻譜,得出 M'。最后,使用逆向 FFT 將 M' 反向回空間域,以獲得修改后的特征圖 m'。使用 FF-Parser 可以學(xué)習(xí)適用于傅里葉空間特征的權(quán)重圖,該權(quán)重圖可用于全局調(diào)整特定頻率的分量。這種技術(shù)不同于空間注意力,后者調(diào)整特定空間位置的組成部分。

實(shí)驗(yàn)

下圖分別是腦部 MRI、眼底視盤和甲狀腺結(jié)節(jié)的超聲圖像分割結(jié)果的可視化,可以看出 MedSegDiff 在簡單解刨結(jié)構(gòu)的二分類上效果還是不錯(cuò)的。

f78ca868-e6c6-11ed-ab56-dac502259ad0.png

對比其他 SOTA 方法的結(jié)果如下表:

f7a666cc-e6c6-11ed-ab56-dac502259ad0.png

MedSegDiff-V2

MedsegDiff-v2 通過將 Transformer 機(jī)制整合到原始的U-Net骨干中,增強(qiáng)了基于擴(kuò)散的 MedSegDiff-v1。具體來說,MedsegDiff-v2 引入了新的 Spectrum-Space Transformer(SS-former),對噪聲和語義特征之間的相互作用進(jìn)行建模。驗(yàn)證了 Medsegdiff-v2 對具有不同模態(tài)圖像的五個(gè)分割數(shù)據(jù)集的十八個(gè)器官的有效性。

概述

如下圖所示,MedsegDiff-v2 結(jié)合了錨點(diǎn)條件和語義條件兩種不同的條件方式,以提高擴(kuò)散模型的性能。錨點(diǎn)條件將錨分割特征(條件模型的解碼分割特征)集成到擴(kuò)散模型的編碼特征中。即允許使用粗略但靜態(tài)的參照來初始化擴(kuò)散模型,有助于減少擴(kuò)散方差。

然后將語義條件強(qiáng)加于擴(kuò)散模型的 embedding,理解為將條件模型的語義 embedding 集成到擴(kuò)散模型的 embedding 中。這種條件集成由 SS-former 實(shí)現(xiàn),它彌合了噪聲和語義嵌入之間的鴻溝,并利用 Transformer 的全局和動(dòng)態(tài)特性抽象出更強(qiáng)的特征表達(dá)形式。

Medsegiff-v2 是使用 DPM 的標(biāo)準(zhǔn)噪聲預(yù)測損失 Lnoise 和錨損失 Lanchor 進(jìn)行訓(xùn)練的。Lanchor 是 Dice loss 和 CE loss 的組合。總損失函數(shù)表示為:
wKgaomRTheSAKLZwAAAZnUcTNKY121.jpg

其中 t ≡ 0 (mod α) 通過超參數(shù) α 控制監(jiān)督條件模型的時(shí)間,β 是另一個(gè)用于加權(quán)交叉熵?fù)p失的經(jīng)驗(yàn)超參數(shù)??偠灾琈edsegdiff-v2 顯著提高了 MedsegDiff 的性能。該方法采用了新的基于 Transformer 的條件 U-Net 框架和兩種不同的條件方式,以提高擴(kuò)散模型的性能。

f7b49c4c-e6c6-11ed-ab56-dac502259ad0.png

Anchor Condition with Gaussian Spatial Attention

與卷積層相比,Transformer 具有更強(qiáng)的表示性,但對輸入方差更敏感。為了克服這種負(fù)面影響,所以使用了錨條件運(yùn)算,如上面概述中的介紹,該運(yùn)算將條件模型的解碼分割特征(錨點(diǎn))集成到擴(kuò)散模型的編碼器特征中。此外,還使用了高斯空間注意力來表示條件模型中給定分割特征的不確定性(概率)。

wKgZomRThhaAWSqSAAAku-U-HKE734.jpg

在第一個(gè)公式中,表示在錨點(diǎn)特征上應(yīng)用高斯核以進(jìn)行平滑激活,因?yàn)殄^點(diǎn)可能不完全準(zhǔn)確,且高斯核的均值和方差是可以學(xué)習(xí)的。選擇平滑 ground truth 和原始圖之間的最大值以保留最相關(guān)的信息,從而生成平滑的錨特征。在第二個(gè)公式中,將平滑錨點(diǎn)特征集成到擴(kuò)散模型中以獲得增強(qiáng)特征。首先應(yīng)用 1x1 卷積將錨特征中的通道數(shù)減少到 1(經(jīng)常作用于解碼器的最后一層)。最后,在錨點(diǎn)特征上使用 sigmoid 激活函數(shù),將其添加到擴(kuò)散模型的每個(gè)通道中,類似于空間注意力的實(shí)現(xiàn)。

Semantic Condition with SS-Former

關(guān)于 SS-Former 的作用,我們只做簡單的總結(jié)。對比 MedSegDiff-v1,是一種將條件模型分割 embedding 集成到擴(kuò)散模型 embedding 中的新架構(gòu),其使用頻譜空間注意力機(jī)制來解決擴(kuò)散和分割 embedding 之間的域差距。此外,注意力機(jī)制在傅里葉空間中合并語義和噪聲信息,和 MedSegDiff-v1 是類似的。

實(shí)驗(yàn)

Medsegiff-v2 是可以進(jìn)行多分類任務(wù)的,只是目前 Github 還沒有維護(hù)多分類的代碼,不過 Medsegiff-v2 的實(shí)現(xiàn)代碼已經(jīng)提交了。下圖為在腹部 CT 圖像中的多器官分割上的表現(xiàn)。

f7c177d2-e6c6-11ed-ab56-dac502259ad0.png

對比其他 SOTA 方法的結(jié)果如下表:

f7ce513c-e6c6-11ed-ab56-dac502259ad0.png

總結(jié)

關(guān)于 diffusion model 在醫(yī)學(xué)圖像分割上的應(yīng)用,其是否能適應(yīng)多分類且復(fù)雜的解刨結(jié)構(gòu)還需要進(jìn)一步探索,訓(xùn)練和推理時(shí)的效率也低于常規(guī)的有監(jiān)督神經(jīng)網(wǎng)絡(luò),可以進(jìn)一步優(yōu)化。





審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 解碼器
    +關(guān)注

    關(guān)注

    9

    文章

    1107

    瀏覽量

    40443
  • MRI
    MRI
    +關(guān)注

    關(guān)注

    0

    文章

    63

    瀏覽量

    16781
  • DPM
    DPM
    +關(guān)注

    關(guān)注

    0

    文章

    24

    瀏覽量

    10938
  • 高斯噪聲
    +關(guān)注

    關(guān)注

    0

    文章

    11

    瀏覽量

    8347

原文標(biāo)題:MedSegDiff:基于 Diffusion Probabilistic Model 的醫(yī)學(xué)圖像分割

文章出處:【微信號:GiantPandaCV,微信公眾號:GiantPandaCV】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    FCM聚類算法用于醫(yī)學(xué)圖像分割matlab源程序

    FCM聚類算法以及改進(jìn)模糊聚類算法用于醫(yī)學(xué)圖像分割的matlab源程序
    發(fā)表于 05-11 23:30

    FCM聚類算法以及改進(jìn)模糊聚類算法用于醫(yī)學(xué)圖像分割的matlab源程序

    FCM聚類算法以及改進(jìn)模糊聚類算法用于醫(yī)學(xué)圖像分割的matlab源程序
    發(fā)表于 05-11 23:54

    van-自然和醫(yī)學(xué)圖像的深度語義分割:網(wǎng)絡(luò)結(jié)構(gòu)

    概率值最大的分割結(jié)果,作為最后的分割圖。U-Net中常常會(huì)問為什么適用于醫(yī)學(xué)圖像這個(gè)問題.。首先分析醫(yī)學(xué)影像數(shù)據(jù)特點(diǎn):
    發(fā)表于 12-28 11:03

    van-自然和醫(yī)學(xué)圖像的深度語義分割:網(wǎng)絡(luò)結(jié)構(gòu)

    概率值最大的分割結(jié)果,作為最后的分割圖。U-Net中常常會(huì)問為什么適用于醫(yī)學(xué)圖像這個(gè)問題.。首先分析醫(yī)學(xué)影像數(shù)據(jù)特點(diǎn):
    發(fā)表于 12-28 11:06

    基于MLP的快速醫(yī)學(xué)圖像分割網(wǎng)絡(luò)UNeXt相關(guān)資料分享

    1、基于MLP的快速醫(yī)學(xué)圖像分割網(wǎng)絡(luò)UNeXt  方法概述  之前我們解讀過基于 Transformer 的 U-Net變體,近年來一直是領(lǐng)先的醫(yī)學(xué)
    發(fā)表于 09-23 14:53

    深度學(xué)習(xí)在醫(yī)學(xué)圖像分割與病變識別中的應(yīng)用實(shí)戰(zhàn)

    來源:易百納技術(shù)社區(qū) 基于深度學(xué)習(xí)的醫(yī)學(xué)圖像分割與病變識別隨著人工智能技術(shù)的不斷發(fā)展,其在醫(yī)療領(lǐng)域的應(yīng)用越來越受到關(guān)注。其中,基于深度學(xué)習(xí)的醫(yī)學(xué)
    發(fā)表于 09-04 11:11

    基于多級混合模型的圖像分割方法

    本文研究了典型的基于區(qū)域的圖像分割方法主動(dòng)形狀模型(Active Shape Model, ASM)和基于邊緣的圖像分割snake 算法,分
    發(fā)表于 07-08 09:58 ?20次下載

    圖像分割—基于圖的圖像分割

    圖像分割—基于圖的圖像分割圖像分割—基于圖的圖像
    發(fā)表于 11-19 16:17 ?0次下載

    圖像分割圖像邊緣檢測

     圖像分割的研究多年來一直受到人們的高度重視,至今提出了各種類型的分割算法。Pal把圖像分割算法分成了6類:閾值
    發(fā)表于 12-19 09:29 ?1.1w次閱讀
    <b class='flag-5'>圖像</b><b class='flag-5'>分割</b>和<b class='flag-5'>圖像</b>邊緣檢測

    基于深度特征聚合網(wǎng)絡(luò)的醫(yī)學(xué)圖像分割方法

    利用卷積神經(jīng)網(wǎng)絡(luò)(CNN)進(jìn)行醫(yī)學(xué)圖像分割時(shí),通常將分割問題抽象為特征表示和參數(shù)優(yōu)化問題,但在上采樣和下采樣過程中容易丟失特征信息,導(dǎo)致分割
    發(fā)表于 05-13 16:39 ?1次下載

    基于改進(jìn)CNN的醫(yī)學(xué)圖像分割方法

    為了提高醫(yī)學(xué)圖像分割的精確性和魯棒性,提岀了一種基于改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)的醫(yī)學(xué)圖像分割方法。首先采用
    發(fā)表于 06-03 16:23 ?6次下載

    基于 U-Net 的醫(yī)學(xué)影像分割算法

    來源:UNknown知識庫 一、醫(yī)學(xué)圖像分割簡介 醫(yī)學(xué)影像分割醫(yī)學(xué)影像分析中的重要領(lǐng)域,也是計(jì)
    的頭像 發(fā)表于 08-25 17:36 ?4563次閱讀

    DDFM:首個(gè)使用擴(kuò)散模型進(jìn)行多模態(tài)圖像融合的方法

    近來去噪擴(kuò)散概率模型 Denoising diffusion probabilistic model (DDPM)在圖像生成中獲得很多進(jìn)步,通過對一張noise-corrupted
    的頭像 發(fā)表于 09-19 16:02 ?3496次閱讀
    DDFM:首個(gè)使用擴(kuò)散模型進(jìn)行多模態(tài)<b class='flag-5'>圖像</b>融合的方法

    圖像分割和語義分割的區(qū)別與聯(lián)系

    圖像分割和語義分割是計(jì)算機(jī)視覺領(lǐng)域中兩個(gè)重要的概念,它們在圖像處理和分析中發(fā)揮著關(guān)鍵作用。 1. 圖像
    的頭像 發(fā)表于 07-17 09:55 ?327次閱讀

    圖像語義分割的實(shí)用性是什么

    圖像語義分割是一種重要的計(jì)算機(jī)視覺任務(wù),它旨在將圖像中的每個(gè)像素分配到相應(yīng)的語義類別中。這項(xiàng)技術(shù)在許多領(lǐng)域都有廣泛的應(yīng)用,如自動(dòng)駕駛、醫(yī)學(xué)圖像
    的頭像 發(fā)表于 07-17 09:56 ?228次閱讀