0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

對(duì)于極暗場(chǎng)景RAW圖像去噪,你是否還在被標(biāo)定折磨?

CVer ? 來(lái)源:CVer ? 2023-08-11 15:47 ? 次閱讀

本文為 [ICCV 2023]LightingEveryDarkness in Two Pairs: A Calibration-Free Pipeline for RAW Denosing 的簡(jiǎn)要介紹

7b3321ee-3805-11ee-9e74-dac502259ad0.png

Github:https://github.com/Srameo/LED

Homepage:https://srameo.github.io/projects/led-iccv23/

Paper:http://arxiv.org/abs/2308.03448

TL; DR;

基于標(biāo)定的方法在極低光照環(huán)境下的 RAW 圖像去噪中占主導(dǎo)地位。然而,這些方法存在幾個(gè)主要缺陷:

噪聲參數(shù)標(biāo)定過(guò)程費(fèi)力且耗時(shí),

不同相機(jī)的降噪網(wǎng)絡(luò)難以相互轉(zhuǎn)換,

合成噪聲和真實(shí)噪聲之間的差異被高倍數(shù)字增益放大。

為了克服上述缺點(diǎn),我們提出了一種無(wú)需標(biāo)定的pipeline來(lái)照亮LighingEveryDarkness(LED),無(wú)論數(shù)字增益或相機(jī)傳感器的種類。我們的方法無(wú)需標(biāo)定噪聲參數(shù)和重復(fù)訓(xùn)練,只需少量配對(duì)數(shù)據(jù)和快速微調(diào)即可適應(yīng)目標(biāo)相機(jī)。此外,簡(jiǎn)單的結(jié)構(gòu)變化可以縮小合成噪聲和真實(shí)噪聲之間的domain gap,而無(wú)需任何額外的計(jì)算成本。在SID[1]上僅需總共6 對(duì)配對(duì)數(shù)據(jù)、和 0.5% 的迭代次數(shù)以及0.2%的訓(xùn)練時(shí)間,LED便表現(xiàn)出SOTA的性能!

Introduction

使用真實(shí)配對(duì)數(shù)據(jù)進(jìn)行訓(xùn)練

SID[1]首先提出一套完整的 benchmark 以及 dataset 進(jìn)行RAW圖像低光增強(qiáng)或去噪。為什么要從RAW圖像出發(fā)進(jìn)行去噪和低光增強(qiáng)呢?因?yàn)槠渚哂懈叩纳舷?,具體可以參考 SID[1]的文章。

那么它具體的做法是什么呢?很簡(jiǎn)單,如圖1左,使用相機(jī)拍攝大量配對(duì)的真實(shí)數(shù)據(jù),之后直接堆到網(wǎng)絡(luò)里進(jìn)行訓(xùn)練。

7b44e1cc-3805-11ee-9e74-dac502259ad0.jpg

圖1: 基于真實(shí)配對(duì)數(shù)據(jù)進(jìn)行訓(xùn)練流程(左)以及基于噪聲模型標(biāo)定進(jìn)行訓(xùn)練流程(右)

但是有一個(gè)很重要的問題,不同的傳感器,噪聲模型以及參數(shù)都是不同的。那么按照這種流程,難道我們對(duì)每種相機(jī)都需要重新收集大量數(shù)據(jù)并重新訓(xùn)練?是不是有點(diǎn)太繁瑣了?

基于噪聲模型標(biāo)定的算法流程

對(duì)于上述提到的問題,近期的paper[2][3][4][5]統(tǒng)一告訴我們:是的?,F(xiàn)在,大家主要卷的,包括在各種工業(yè)場(chǎng)景(手機(jī)、邊緣設(shè)備上),去噪任務(wù)都已經(jīng)開始采用基于標(biāo)定的手段。

那么什么是標(biāo)定呢?具體的標(biāo)定流程大家可以參考

@Wang Hawk

的文章Wang Hawk:60. 數(shù)碼相機(jī)成像時(shí)的噪聲模型與標(biāo)定。當(dāng)然,基于深度學(xué)習(xí)+噪聲模型標(biāo)定的算法大概就分為如下三步(可以參考圖1右):

1. 設(shè)計(jì)噪聲模型,收集標(biāo)定用數(shù)據(jù),

2.使用 1. 中的標(biāo)定的數(shù)據(jù)對(duì)對(duì)噪聲模型進(jìn)行參數(shù)估計(jì)埋個(gè)伏筆,增益(或者說(shuō)iso)和噪聲方差有著log域的線性關(guān)系

3. 使用 2. 中標(biāo)定好的噪聲模型合成配對(duì)數(shù)據(jù)并訓(xùn)練神經(jīng)網(wǎng)絡(luò)。

這樣,對(duì)于不同的相機(jī),我們只需使用不同的標(biāo)定數(shù)據(jù)(收集難度相對(duì)于大規(guī)模配對(duì)數(shù)據(jù)集來(lái)講少了很多),便可以訓(xùn)練出對(duì)應(yīng)該相機(jī)的專用去噪網(wǎng)絡(luò)。

但是,標(biāo)定算法真的好嗎?

標(biāo)定缺陷以及 LED

7b5feff8-3805-11ee-9e74-dac502259ad0.jpg

圖2: 基于噪聲模型標(biāo)定的算法缺陷

那么我們喜歡什么呢?

簡(jiǎn)化標(biāo)定[6][7],甚至無(wú)需標(biāo)定,

快速部署到新相機(jī)上,

強(qiáng)大的“泛化”能力:很好的泛化到真實(shí)場(chǎng)景,克服合成噪聲到真實(shí)噪聲之間的domain gap。

So here comes LED!

7baea6c0-3805-11ee-9e74-dac502259ad0.jpg

圖3: 標(biāo)定算法與LED的對(duì)比

無(wú)需標(biāo)定:相比于標(biāo)定算法需要使用真實(shí)相機(jī)的噪聲參數(shù),我們采用虛擬相機(jī)噪聲參數(shù)進(jìn)行數(shù)據(jù)合成,

快速部署:采用 Pretrain-Finetune 的訓(xùn)練策略,對(duì)于新相機(jī)僅需少量數(shù)據(jù)對(duì)網(wǎng)絡(luò)部分參數(shù)進(jìn)行微調(diào),

克服 Domain Gap:通過(guò)少量真實(shí)數(shù)據(jù)進(jìn)行 finetune 以獲得去除真實(shí)噪聲的能力。

LED 能做到什么?

7bc81042-3805-11ee-9e74-dac502259ad0.jpg

圖4: 6對(duì)數(shù)據(jù) + 1.5K iteration = SOTA Performance!

7bdcc80c-3805-11ee-9e74-dac502259ad0.jpg

圖5: 更直觀的log對(duì)比

Method

LED大概分為一下幾步:

預(yù)定義噪聲模型Φ,從參數(shù)空間中隨機(jī)采集 N 組 “虛擬相機(jī)” 噪聲參數(shù),

使用 1. 中的 N 組 “虛擬相機(jī)” 噪聲參數(shù)合成并 Pretrain 神經(jīng)網(wǎng)絡(luò),

使用目標(biāo)相機(jī)收集少量配對(duì)數(shù)據(jù),

、

使用 3. 中的少量數(shù)據(jù) Finetune 2. 中預(yù)訓(xùn)練的神經(jīng)網(wǎng)絡(luò)。

當(dāng)然,一個(gè)普通的 UNet 并不能很好的完成我們前文說(shuō)的3個(gè)“需要”。因此結(jié)構(gòu)上也需要做少量更改:

7c05df62-3805-11ee-9e74-dac502259ad0.jpg

圖6: UNet 結(jié)構(gòu)中的 RepNR Block

首先,我們把 UNet 里所有的 Conv3 配上一組CSA (Camera Specific Alignment),CSA 指一個(gè)簡(jiǎn)單的 channel-wise weight 和一組 channel-wise 的 bias,用于 feature space 上的對(duì)齊。

Pretrain 時(shí),對(duì)于第 k個(gè)相機(jī)合成的數(shù)據(jù),我們只訓(xùn)練第 k 個(gè)CSA以及 Conv3。

Finetune 時(shí),先將 Pretrain 時(shí)的CSA組進(jìn)行 Average 得到初始化的CSA^T (for target camera),然后先將其訓(xùn)練收斂;之后添加一個(gè)額外分枝,繼續(xù)微調(diào),額外分枝用于學(xué)習(xí)合成噪聲和真實(shí)噪聲之間的 Domain Gap。

當(dāng)然,由于CSA以及卷積都是線性操作,所以我們?cè)诓渴饡r(shí)候可以將他們?nèi)慷贾貐?shù)化到一起,因此最終不會(huì)引入任何額外計(jì)算量!

7c293b38-3805-11ee-9e74-dac502259ad0.jpg

圖7: 重參數(shù)化

Visual Result

下圖表現(xiàn)出了 LED 對(duì)于 Out-of-model 噪聲的去除能力(克服合成噪聲與真實(shí)噪聲之間 Domain Gap 的能力)。

Out-Of-Model Noise 指不被預(yù)定義在噪聲模型中的噪聲,如圖8中由鏡頭所引起的噪聲或圖9中由 Dark Shading 所引起的噪聲

7c4ad5fe-3805-11ee-9e74-dac502259ad0.jpg

圖8: Out-Of-Model Pattern 去除能力(鏡頭引發(fā)的 Artifact)

7c5a4b7e-3805-11ee-9e74-dac502259ad0.jpg

圖9: Out-of-model 噪聲去除能力(Dark Shading)

Discussion on “為什么需要兩對(duì)數(shù)據(jù)?”

7ca2d2b8-3805-11ee-9e74-dac502259ad0.jpg

圖10

不知道大家記不記得之前埋的一個(gè)伏筆:增益和噪聲方差之間保持對(duì)數(shù)線性關(guān)系。

線性關(guān)系意味著什么呢??jī)牲c(diǎn)確定一條直線!也就是說(shuō)兩對(duì)數(shù)據(jù)(每對(duì)數(shù)據(jù)都能提供在某增益下噪聲方差的值)就可以確定這個(gè)線性關(guān)系。但是,由于存在誤差[2],所以我們需要增益差距盡可能大的兩對(duì)數(shù)據(jù)以完成網(wǎng)絡(luò)對(duì)線性關(guān)系的學(xué)習(xí)。

從圖10右也能看出,當(dāng)我們無(wú)論使用增益相同的 1、2、4 對(duì)數(shù)據(jù),性能并不會(huì)有太大的差距。而使用增益差距很大的兩對(duì)數(shù)據(jù)(差異很大指 ISO<500 與 ISO>5000)時(shí),性能有巨大提升。這也能驗(yàn)證我們的假設(shè),即兩對(duì)數(shù)據(jù)便可以學(xué)習(xí)到線性關(guān)系。

后記:關(guān)于開源

我們的訓(xùn)練測(cè)試包括對(duì)ELD的復(fù)現(xiàn)代碼都已經(jīng)開源到 Github 上了,如果大家感興趣的話可以幫我們點(diǎn)個(gè) star。

當(dāng)然不僅是代碼,我們還一口氣開源了 配對(duì)數(shù)據(jù)、ELD、PG(泊松-高斯)噪聲模型在多款相機(jī)上、不同訓(xùn)練策略、不同階段(指 LED 的 Pre-train 和 Fine-tune 階段)的一共15個(gè)模型,詳見 pretrained-model.md。

此外,由于 RepNR block 目前只在 UNet 上進(jìn)行了測(cè)試,不過(guò)我們相信其在別的模型上的潛力。于是,我們提供了快速將 RepNR block 用于別的模型上的代碼,僅需一行代碼,便可在你自己的網(wǎng)絡(luò)結(jié)構(gòu)上使用 RepNR block,配合我們的 Noisy-Clean 生成器,可以快速驗(yàn)證 RepNR block 在其他結(jié)構(gòu)上的有效性。相關(guān)講解以及代碼可以在 develop.md 中找到。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 噪聲
    +關(guān)注

    關(guān)注

    13

    文章

    1098

    瀏覽量

    47280
  • 圖像
    +關(guān)注

    關(guān)注

    2

    文章

    1075

    瀏覽量

    40267
  • GitHub
    +關(guān)注

    關(guān)注

    3

    文章

    461

    瀏覽量

    16232

原文標(biāo)題:ICCV 2023 | 對(duì)于極暗場(chǎng)景RAW圖像去噪,你是否還在被標(biāo)定折磨?來(lái)試試LED!少量數(shù)據(jù)、快速部署!

文章出處:【微信號(hào):CVer,微信公眾號(hào):CVer】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    求基于fpga的圖像去噪的設(shè)計(jì)

    求用vrilog語(yǔ)言的用雙邊濾波算法的圖像去噪程序代碼。謝謝,急?。?!
    發(fā)表于 05-12 21:36

    基于稀疏分解的圖像去噪

    基于稀疏分解的圖像去噪處理是將被噪聲污染的圖像分解成圖像的稀疏成分和其他成分。稀疏成分對(duì)應(yīng)于圖像中的有用信息,其他成分對(duì)應(yīng)于圖像中的噪聲。由
    發(fā)表于 12-03 12:59 ?39次下載

    基于小波變換氣動(dòng)光學(xué)效應(yīng)模糊圖像去噪

    采用小波變換算法用于氣動(dòng)光學(xué)效應(yīng)圖像去噪研究。結(jié)合氣動(dòng)光學(xué)效應(yīng)的復(fù)雜性和小波變換的特性,小波變換算法可以有效地應(yīng)用于氣動(dòng)光學(xué)效應(yīng)圖像去噪。圖像
    發(fā)表于 08-06 11:45 ?14次下載

    一種自適應(yīng)多尺度積閾值的圖像去噪算法

    該文提出了平穩(wěn)小波變換(Stationary Wavelet Transform, SWT )域自適應(yīng)多尺度積閾值的圖像去噪算法(SWT domain Multiscale Products, SWTMP)。與傳統(tǒng)的閾值算法
    發(fā)表于 11-11 16:08 ?20次下載

    基于提升小波的圖像去噪算法的FPGA設(shè)計(jì)

    圖像處理中,基于離散小波變換的提升算法比傳統(tǒng)的卷積算法運(yùn)算簡(jiǎn)單、實(shí)時(shí)性好、易于實(shí)現(xiàn),因而被圖像去噪所采用。本文介紹了提升小波的基本原理,以及把提升小波應(yīng)用
    發(fā)表于 12-26 16:57 ?25次下載

    基于一種新閾值函數(shù)的小波醫(yī)學(xué)圖像去噪

    醫(yī)學(xué)圖像去噪是醫(yī)學(xué)圖像處理的重要組成環(huán)節(jié),小波閾值是信號(hào)處理中的一種重要方法。本文在介紹了Donoho 小波閾值
    發(fā)表于 01-15 11:55 ?22次下載

    基于邊緣檢測(cè)的NSCT自適應(yīng)閾值圖像去噪

    為在時(shí)能較好保留圖像邊緣特征,并針對(duì)Coutourlet 變換缺乏平移不變性和傳統(tǒng)閾值法的不足,提出了一種基于邊緣檢測(cè)的非子采樣Contourlet 變換自適應(yīng)閾值(AT-NSCT)圖像去
    發(fā)表于 01-22 15:31 ?10次下載

    基于提升小波的圖像去噪算法的FPGA設(shè)計(jì)

    圖像處理中,基于離散小波變換的提升算法比傳統(tǒng)的卷積算法運(yùn)算簡(jiǎn)單、實(shí)時(shí)性好、易于實(shí)現(xiàn),因而被圖像去噪所采用。本文介紹了提升小波的基本原理,以及把提升小波應(yīng)用于圖像
    發(fā)表于 07-21 17:32 ?18次下載

    免疫機(jī)理的圖像去噪方法研究

    免疫機(jī)理的圖像去噪方法研究_劉歡
    發(fā)表于 01-03 15:24 ?0次下載

    基于Gauss濾波和Euler修復(fù)模型的SAR圖像去噪

    基于Gauss濾波和Euler修復(fù)模型的SAR圖像去噪_王田芳
    發(fā)表于 01-07 16:24 ?2次下載

    一種基于壓縮感知的改進(jìn)全變分圖像去噪方法

    一種基于壓縮感知的改進(jìn)全變分圖像去噪方法_徐立軍
    發(fā)表于 01-07 19:08 ?2次下載

    基于數(shù)據(jù)驅(qū)動(dòng)緊框架圖像去噪模型

    圖像去噪圖像處理中的基本問題之一。現(xiàn)如今,已經(jīng)存在了大量的算法能夠解決含高斯噪聲的圖像去噪問題。但是,含泊松噪聲的圖像去噪問題依然很少被研究。泊松噪聲,一般會(huì)在由數(shù)量少的光子產(chǎn)生的
    發(fā)表于 11-05 15:27 ?9次下載
    基于數(shù)據(jù)驅(qū)動(dòng)緊框架<b class='flag-5'>圖像去噪</b>模型

    基于中值濾波和小波變換的火電廠爐膛火焰圖像去噪方法

    針對(duì)煤電廠爐膛火焰圖像含有脈沖噪聲和高斯噪聲混合含圖像的特點(diǎn),提出了中值濾波和小波變換相結(jié)合的火焰圖像去噪方法。首先采用自適應(yīng)權(quán)重中值濾波方法對(duì)火焰
    發(fā)表于 11-27 09:46 ?1次下載
    基于中值濾波和小波變換的火電廠爐膛火焰<b class='flag-5'>圖像去噪</b>方法

    基于多通道聯(lián)合估計(jì)的非局部均值彩色圖像去噪方法

    提出一種基于多通道聯(lián)合估計(jì)的非局部均值彩色圖像去噪方法,包括彩色通道聯(lián)合和彩色通道融合兩個(gè)步驟:在彩色通道聯(lián)合
    發(fā)表于 02-27 16:02 ?2次下載

    如何解決圖像去噪在去除噪聲的同時(shí)容易丟失細(xì)節(jié)信息的問題

    針對(duì)許多圖像去噪方法在去除噪聲的同時(shí)容易丟失細(xì)節(jié)信息的問題,提出了一種基于非局部自相似性的低秩稀疏圖像去噪算法。首先,利用基于馬氏距離( MD)的塊匹配方法將外部自然干凈圖像塊分組,建立基于塊組
    發(fā)表于 01-03 11:46 ?12次下載
    如何解決<b class='flag-5'>圖像去噪</b>在去除噪聲的同時(shí)容易丟失細(xì)節(jié)信息的問題