前言
繼醫(yī)學(xué)圖像處理系列之后,我們又回到了小樣本語義分割主題上,之前閱讀筆記的鏈接我也在文末整理了一下。
小樣本語義分割旨在學(xué)習(xí)只用幾個帶標簽的樣本來分割一個新的對象類,大多數(shù)現(xiàn)有方法都考慮了從與新類相同的域中采樣基類的設(shè)置(假設(shè)源域和目標域相似)。
然而,在許多應(yīng)用中,為元學(xué)習(xí)收集足夠的訓(xùn)練數(shù)據(jù)是不可行的。這篇論文也將小樣本語義分割擴展到了一項新任務(wù),稱為跨域小樣本語義分割(CD-FSS),將具有足夠訓(xùn)練標簽的域的元知識推廣到低資源域,建立了 CD-FSS 任務(wù)的新基準。
在開始介紹 CD-FSS 之前,我們先分別搞明白廣義上跨域和小樣本學(xué)習(xí)的概念(這個系列后面的文章就不仔細介紹了)。小樣本學(xué)習(xí)可以分為 Zero-shot Learning(即要識別訓(xùn)練集中沒有出現(xiàn)過的類別樣本)和 One-Shot Learning/Few shot Learning(即在訓(xùn)練集中,每一類都有一張或者幾張樣本)。幾個相關(guān)的重要概念:
域:一個域 D 由一個特征空間 X 和特征空間上的邊緣概率分布 P(X) 組成,其中 X=x1,x2,.....,xn,P(X) 代表 X 的分布。
任務(wù):在給定一個域 D={X, P(X)} 之后,一個任務(wù) T 由一個標簽空間 Y 以及一個條件概率分布 P(Y|X) 構(gòu)成,其中,這個條件概率分布通常是從由特征—標簽對 ∈X,∈Y 組成的訓(xùn)練數(shù)據(jù)(已知)中學(xué)習(xí)得到。父任務(wù),如分類任務(wù);子任務(wù),如貓咪分類任務(wù),狗狗分類任務(wù)。
Support set:支撐集,每次訓(xùn)練的樣本集合。
Query set:查詢集,用于與訓(xùn)練樣本比對的樣本,一般來說 Query set 就是一個樣本。
在 Support set 中,如果有 n 個種類,每個種類有 k 個樣本,那么這個訓(xùn)練過程叫 n-way k-shot。如每個類別是有 5 個 examples 可供訓(xùn)練,因為訓(xùn)練中還要分 Support set 和 Query set,那么 5-shots 場景至少需要 5+1 個樣例,至少一個 Query example 去和 Support set 的樣例做距離(分類)判斷。
現(xiàn)階段絕大部分的小樣本學(xué)習(xí)都使用 meta-learning 的方法,即 learn to learn。將模型經(jīng)過大量的訓(xùn)練,每次訓(xùn)練都遇到的是不同的任務(wù),這個任務(wù)里存在以前的任務(wù)中沒有見到過的樣本。所以模型處理的問題是,每次都要學(xué)習(xí)一個新的任務(wù),遇見新的 class。 經(jīng)過大量的訓(xùn)練,這個模型就理所當(dāng)然的能夠很好的處理一個新的任務(wù),這個新的任務(wù)就是小樣本啦。
meta-learning 共分為 Training 和 Testing 兩個階段。
Training 階段的思路流程如下:
將訓(xùn)練集采樣成支撐集和查詢集。
基于支撐集生成一個分類模型。
利用模型對查詢集進行預(yù)測生成 predict labels。
通過查詢集 labels(即ground truth)和 predict labels 進行 loss 計算,從而對分類模型 C 中的參數(shù) θ 進行優(yōu)化。
Testing 階段的思路:
利用 Training 階段學(xué)來的分類模型 C 在 Novel class 的支撐集上進一步學(xué)習(xí)。
學(xué)到的模型對 Novel class 的查詢集進行預(yù)測(輸出)。
總的來說,meta-learning 核心點之一是如何通過少量樣本學(xué)習(xí)分類模型C。
再來解釋下為什么要研究跨域的小樣本學(xué)習(xí),當(dāng)目標任務(wù)與源任務(wù)中數(shù)據(jù)分布差距過大,在源域上訓(xùn)練得到的模型無法很好的泛化到目標域上(尤其是基于元學(xué)習(xí)的方法,元學(xué)習(xí)假設(shè)源域和目標域相似),從而無法提升目標任務(wù)的效果,即在某一個域訓(xùn)練好的分類模型在其他域上進行分類測試時,效果不理想。
如果能用某種方法使得源域和目標域的數(shù)據(jù)在同一分布,則源任務(wù)會為目標任務(wù)提供更加有效的先驗知識。至此,如何解決跨域時目標任務(wù)效果不理想的問題成了跨域的小樣本學(xué)習(xí)。
如下圖,跨域小樣本學(xué)習(xí)對應(yīng)當(dāng)源域和目標域在不同子任務(wù)(父任務(wù)相同)且不同域下時,利用通過源域獲得的先驗知識幫助目標任務(wù)提高其 performance,其中已有的知識叫做源域(source domain),要學(xué)習(xí)的新知識叫目標域(target domain)。
概述
在經(jīng)過對跨域小樣本學(xué)習(xí)的詳細介紹后,我們再回到發(fā)表在 ECCV 2022 的 Cross-Domain Few-Shot Semantic Segmentation 這篇論文上。這篇文章為 CD-FSS 建立了一個新的基準,在提出的基準上評估了具有代表性的小樣本分割方法和基于遷移學(xué)習(xí)的方法,發(fā)現(xiàn)當(dāng)前的小樣本分割方法無法解決 CD-FSS。
所以,提出了一個新的模型,被叫做 PATNet(Pyramid-Anchor-Transformation),通過將特定領(lǐng)域的特征轉(zhuǎn)化為下游分割模塊的領(lǐng)域無關(guān)的特征來解決 CD-FSS 問題,以快速適應(yīng)新的任務(wù)。
下圖是論文里給出的跨域的小樣本分割與現(xiàn)有任務(wù)的區(qū)別。 和 分別表示源域和目標域的數(shù)據(jù)分布。 代表源標簽空間, 代表目標標簽空間。
Proposed benchmark
提出的 CD-FSS 基準由四個數(shù)據(jù)集組成,其特征在于不同大小的域偏移。包括來自 FSS-1000 、Deepglobe、ISIC2018 和胸部 X-ray 數(shù)據(jù)集的圖像和標簽。
這些數(shù)據(jù)集分別涵蓋日常物體圖像、衛(wèi)星圖像、皮膚損傷的皮膚鏡圖像和 X 射線圖像。所選數(shù)據(jù)集具有類別多樣性,并反映了小樣本語義分割任務(wù)的真實場景。如下圖:
在下表中,每個域的任務(wù)難度從兩個方面進行衡量:1)域遷移(跨數(shù)據(jù)集)和 2)單個圖像中的類別區(qū)分(在數(shù)據(jù)集中)。 F?echet Inception Distance (FID) 用于測量這四個數(shù)據(jù)集相對于 PASCAL 的域偏移,于是單個圖像中的域偏移和類別區(qū)分分別由 FID 和 DisFB 測量。由于單個圖像中類別之間的區(qū)分對分割任務(wù)有重要影響,使用 KL 散度測量前景和背景類別之間的相似性。
整體機制 with CD-FSS
CD-FSS 的主要挑戰(zhàn)是如何減少領(lǐng)域轉(zhuǎn)移帶來的性能下降。以前的工作主要是學(xué)習(xí) Support-Query 匹配模型,假設(shè)預(yù)訓(xùn)練的編碼器足夠強大,可以將圖像嵌入到下游匹配模型的可區(qū)分特征中。
然而在大領(lǐng)域差距下,只在源域中預(yù)訓(xùn)練的 backbone 在目標域中失敗了,如日常生活中的物體圖像到 X-ray 圖像。
為了解決這個問題,模型需要學(xué)會將特定領(lǐng)域的特征轉(zhuǎn)化為領(lǐng)域無關(guān)的特征。這樣一來,下游模型就可以通過匹配 Support-Query 的領(lǐng)域無關(guān)的特征來進行分割,從而很好地適應(yīng)新領(lǐng)域。
如下圖所示(左邊訓(xùn)練,右邊測試),整體機制由三個主要部分組成,即特征提取 backbone、domain-adaptive hypercorrelation construction 和 domain-agnostic correlation learning。對于輸入的 Support-Query 圖像,首先用特征提取器提取所有的中間特征。然后,我們在 domain-adaptive hypercorrelation construction 部分引入一個特別新穎的模塊,稱為 Pyramid Anchor-based Transformation Module(PATM),將特定領(lǐng)域的特征轉(zhuǎn)換為領(lǐng)域無關(guān)的特征。
接下來,用所有轉(zhuǎn)換后的特征圖計算多層次的相關(guān)圖,并將其送入 domain-agnostic correlation learning 部分。使用兩個現(xiàn)成的模塊,分別為 4D 卷積金字塔編碼器和 2D 卷積上下文解碼器,被用來以粗到細的方式產(chǎn)生預(yù)測掩碼,并具有高效的 4D 卷積。
在測試階段,論文里還提出了一個任務(wù)自適應(yīng)微調(diào)推理(TFI)策略,以鼓勵模型通過 Lkl 損失微調(diào) PATM 來快速適應(yīng)目標領(lǐng)域,Lkl 損失衡量 Support-Query 預(yù)測之間的前景原型相似度。
PATNet
上一部分提到 PATM 將特定領(lǐng)域的特征轉(zhuǎn)換為領(lǐng)域無關(guān)的特征,這一部分我們仔細看一下。Pyramid Anchor-based Transformation Module(PATM)的核心思想是學(xué)習(xí) pyramid anchor layers,將特定領(lǐng)域的特征轉(zhuǎn)換為領(lǐng)域無關(guān)的特征。直觀地說,如果我們能找到一個轉(zhuǎn)化器,將特定領(lǐng)域的特征轉(zhuǎn)化為領(lǐng)域無關(guān)的度量空間,它將減少領(lǐng)域遷移帶來的不利影響。由于領(lǐng)域無關(guān)的度量空間是不變的,所以下游的分割模塊在這樣一個穩(wěn)定的空間中進行預(yù)測會更容易。
理想情況下,屬于同一類別的特征在以同樣的方式進行轉(zhuǎn)換時將產(chǎn)生類似的結(jié)果。因此,如果將 Support 特征轉(zhuǎn)換為領(lǐng)域空間中的相應(yīng)錨點,那么通過使用相同的轉(zhuǎn)換,也可以使屬于同一類別的 Query 特征轉(zhuǎn)換為接近領(lǐng)域空間中的錨點。采用線性變換矩陣作為變換映射器,因為它引入的可學(xué)習(xí)參數(shù)較少。
如上一部分中的圖,使用 anchor layers 和 Support 圖像的原型集來計算變換矩陣。如果 A 代表 anchor layers 的權(quán)重矩陣,P 表示 Support 圖像的原型矩陣。既通過尋找一個矩陣來構(gòu)建轉(zhuǎn)換矩陣 W,使 WP=A。
任務(wù)自適應(yīng)微調(diào)推理(TFI)策略
為了進一步提高 Query 圖像預(yù)測的準確率,提出了一個任務(wù)自適應(yīng)微調(diào)推理(TFI,Task- adaptive Fine-tuning Inference)策略,以便在測試階段快速適應(yīng)新的對象。
如果模型能夠為 Query 圖像預(yù)測一個好的分割結(jié)果,那么分割后的 Query 圖像的前景類原型應(yīng)該與 Support 的原型相似。
與優(yōu)化模型中的參數(shù)不同,我們只對 anchor layers 進行微調(diào),以避免過擬合。上圖右側(cè)顯示了該策略的流程,在測試階段,在第 1 步(step 1)中,只有錨層使用提議的 Lkl 進行相應(yīng)的更新,Lkl 衡量 Support 和 Query set 的前景類原型之間的相似性。在第 2 步(step 1)中,模型中的所有層都被凍結(jié),并對 Query 圖像進行最終預(yù)測。通過這種方式,模型可以快速適應(yīng)目標域,并利用經(jīng)過微調(diào)的 anchor layers 產(chǎn)生的輔助校準特征對分割結(jié)果進行完善。
如下圖是幾個 1-shot 任務(wù)的可視化比較結(jié)果。對于每個任務(wù),前三列顯示 Support 和 Query set 的金標準。接下來的兩列分別表示沒有PATM 和沒有 TFI 的分割結(jié)果,最后一列顯示了用 Lkl 微調(diào)后的最終分割結(jié)果。
實驗和可視化
如下表所示,是元學(xué)習(xí)和遷移學(xué)習(xí)方法在 CD-FSS 基準上的 1-way 1-shot 和 5-shot 結(jié)果的平均 IoU。所有的方法都是在 PASCAL VOC 上訓(xùn)練,在 CD-FSS 上測試。
下圖是模型在 CD-FSS 上進行 1-way 1-shot 分割的定性結(jié)果。其中,Support 圖像標簽是藍色。Query 圖像標簽和預(yù)測結(jié)果是另一種顏色。
總結(jié)
這篇論文也將小樣本語義分割擴展到了一項新任務(wù),稱為跨域小樣本語義分割(CD-FSS)。建立了一個新的 CD-FSS benchmark 來評估不同域轉(zhuǎn)移下小樣本分割模型的跨域泛化能力。實驗表明,由于跨域特征分布的巨大差異,目前 SOTA 的小樣本分割模型不能很好地泛化到來自不同域的類別。所以,提出了一種新模型,被叫做 PATNet,通過將特定領(lǐng)域的特征轉(zhuǎn)換為與領(lǐng)域無關(guān)的特征,用于下游分割模塊以快速適應(yīng)新的領(lǐng)域,從而也解決了 CD-FSS 問題。
審核編輯:劉清
-
圖像處理
+關(guān)注
關(guān)注
27文章
1275瀏覽量
56576 -
FSS
+關(guān)注
關(guān)注
0文章
12瀏覽量
9635
原文標題:ECCV 2022: 跨域小樣本語義分割新基準
文章出處:【微信號:GiantPandaCV,微信公眾號:GiantPandaCV】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
評論