0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于特征深度學(xué)習(xí)重建網(wǎng)絡(luò)來(lái)恢復(fù)通暢的圖像

lhl545545 ? 來(lái)源:計(jì)算機(jī)視覺(jué)芯片設(shè)計(jì) ? 作者:計(jì)算機(jī)視覺(jué)芯片設(shè) ? 2022-08-18 11:18 ? 次閱讀

今年來(lái)溫哥華參加的siggraph也是第二次參加這種檔次的會(huì)議,我比較關(guān)注計(jì)算影像學(xué)。

1. Centimeter-Wave Free-Space Time-of-Flight Imaging

深度相機(jī)正在成為一種基石模式,具有直接或間接依賴于測(cè)量深度的多種應(yīng)用,包括個(gè)人設(shè)備、機(jī)器人自動(dòng)駕駛汽車。盡管飛行時(shí)間 (ToF) 方法推動(dòng)了這些應(yīng)用,但 ToF 方法的精度和魯棒性受到依賴于光子時(shí)間標(biāo)記或光轉(zhuǎn)換后調(diào)制的限制。成功的光調(diào)制方法有大耦合損耗的受限光纖耦合調(diào)制或亞厘米范圍的干涉調(diào)制,干涉方法與ToF方法之間的精度差距超過(guò)三個(gè)數(shù)量級(jí)。在這項(xiàng)工作中,我們縮小了這一差距,并提出了一種用于光轉(zhuǎn)換前的全光學(xué)自由空間相關(guān)的計(jì)算成像方法,該方法通過(guò)傳統(tǒng)的硅強(qiáng)度傳感器實(shí)現(xiàn)了微米級(jí)深度分辨率,并對(duì)表面反射率和環(huán)境光具有魯棒性。為此,我們解決了兩個(gè)技術(shù)挑戰(zhàn):以 GHz 速率調(diào)制和計(jì)算相位展開(kāi)。我們提出了一種具有諧振偏振調(diào)制器的成像方法,并設(shè)計(jì)了一種新穎的光學(xué)雙通倍頻,可在超過(guò) 10GHz 時(shí)實(shí)現(xiàn)高調(diào)制對(duì)比度。同時(shí),厘米波調(diào)制以及較小的調(diào)制帶寬使現(xiàn)有的相位展開(kāi)方法無(wú)效。我們使用一種神經(jīng)相位展開(kāi)方法來(lái)解決這個(gè)問(wèn)題,該方法利用相鄰的包裹通常高度相關(guān)。我們?cè)?a href="http://www.ttokpm.com/analog/" target="_blank">模擬和實(shí)驗(yàn)中驗(yàn)證了所提出的方法,它達(dá)到了微米級(jí)的深度精度。我們展示了獨(dú)立于表面紋理和環(huán)境光的精確深度感應(yīng),并與現(xiàn)有的模擬解調(diào)方法進(jìn)行了比較,我們?cè)谒袦y(cè)試場(chǎng)景中都表現(xiàn)出色。

2. Blending Camera and 77 GHz Radar Sensing for Equitable, Robust Plethysmography.

隨著因 COVID-19 大流行而導(dǎo)致的非接觸式生命體征傳感的復(fù)蘇,遠(yuǎn)程心率監(jiān)測(cè)已獲得顯著的重視。許多現(xiàn)有方法使用相機(jī);然而,之前的工作顯示較深膚色的性能損失。在本文中,我們通過(guò)光傳輸分析表明,相機(jī)模式從根本上偏向于較深的膚色。我們建議通過(guò)多模態(tài)融合與互補(bǔ)和更公平的模態(tài)——雷達(dá)來(lái)減少這種偏差。通過(guò)一種新穎的面向去偏的融合框架,我們?cè)谒袦y(cè)試基線上實(shí)現(xiàn)了性能提升,并在 RGB 模態(tài)上實(shí)現(xiàn)了膚色公平性改進(jìn)。此外,與基于雷達(dá)的方法相比,性能得到了改進(jìn),但公平性方面的權(quán)衡很小。我們還開(kāi)源了最大的多模式遠(yuǎn)程心率估計(jì)數(shù)據(jù)集,其中包括配對(duì)相機(jī)和雷達(dá)測(cè)量,重點(diǎn)是膚色表示。

33a915c6-19ee-11ed-ba43-dac502259ad0.png

3. Seeing Through Obstructions With Diffractive Cloaking

33da3ec6-19ee-11ed-ba43-dac502259ad0.png

我們提出了一種計(jì)算單目相機(jī),它可以在光學(xué)上隱藏不需要的障礙物,例如鏡頭蓋玻璃上的雨滴或污漬,或相機(jī)附近的柵欄。我們沒(méi)有在捕獲后修復(fù)被遮擋的信息,而是學(xué)習(xí)了一個(gè)定制的衍射光學(xué)元件,當(dāng)它放置在相機(jī)鏡頭前時(shí),它充當(dāng)了一個(gè)與深度相關(guān)的散射體。學(xué)習(xí)到的光學(xué)元件位于現(xiàn)有相機(jī)設(shè)置的孔徑平面上,并產(chǎn)生一個(gè)點(diǎn)擴(kuò)散函數(shù),為近距離物體提供大空間支持,將光線從焦點(diǎn)處散射出去。同時(shí)在不增加相機(jī)占用空間的情況下保持長(zhǎng)距離的空間分辨率。結(jié)合光學(xué)元件,我們共同優(yōu)化了一個(gè)基于特征的深度學(xué)習(xí)重建網(wǎng)絡(luò)來(lái)恢復(fù)通暢的圖像。

4. Optical Aberrations Correction in Postprocessing Using Imaging Simulation

隨著移動(dòng)攝影的不斷普及,人們正在投入大量精力來(lái)重建退化的圖像。由于在鏡頭設(shè)計(jì)過(guò)程中無(wú)法避免的光學(xué)像差的空間變化,最近的商用相機(jī)已將其中一些校正任務(wù)從光學(xué)設(shè)計(jì)轉(zhuǎn)移到后處理系統(tǒng)。然而,在不涉及光學(xué)參數(shù)的情況下,這些系統(tǒng)只能實(shí)現(xiàn)有限的像差校正。

在這項(xiàng)工作中,我們提出了一種實(shí)用的方法來(lái)恢復(fù)由光學(xué)像差引起的退化。具體來(lái)說(shuō),我們建立了基于我們提出的光學(xué)點(diǎn)擴(kuò)散函數(shù)模型的成像模擬系統(tǒng)。給定相機(jī)的光學(xué)參數(shù),它會(huì)生成這些特定設(shè)備的成像結(jié)果。為了進(jìn)行恢復(fù),我們?cè)诔上衲M系統(tǒng)生成的合成數(shù)據(jù)對(duì)上設(shè)計(jì)了一個(gè)空間自適應(yīng)網(wǎng)絡(luò)模型,消除了通過(guò)大量拍攝和配準(zhǔn)捕獲訓(xùn)練數(shù)據(jù)的開(kāi)銷。

此外,我們分別使用定制的數(shù)字單鏡頭反光相機(jī)鏡頭和 HUAWEI HONOR 20 在模擬和實(shí)驗(yàn)中全面評(píng)估了所提出的方法。實(shí)驗(yàn)表明,我們的解決方案成功地消除了空間變化的模糊和色散。與最先進(jìn)的去模糊方法相比,所提出的方法以更低的計(jì)算開(kāi)銷實(shí)現(xiàn)了更好的結(jié)果。此外,重建技術(shù)沒(méi)有引入人工紋理,便于移植到當(dāng)前的商用相機(jī)中。

審核編輯:彭靜
聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 網(wǎng)絡(luò)
    +關(guān)注

    關(guān)注

    14

    文章

    7389

    瀏覽量

    88213
  • 影像
    +關(guān)注

    關(guān)注

    0

    文章

    119

    瀏覽量

    14451
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5422

    瀏覽量

    120592

原文標(biāo)題:2022 Siggraph:計(jì)算影像學(xué)(1)

文章出處:【微信號(hào):計(jì)算機(jī)視覺(jué)芯片設(shè)計(jì),微信公眾號(hào):計(jì)算機(jī)視覺(jué)芯片設(shè)計(jì)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    通過(guò)深度學(xué)習(xí)圖像三維物體重建研究方案

    假設(shè) 為物體的一張或多張RGB圖片。三維重建可以總結(jié)為一個(gè)學(xué)習(xí)預(yù)測(cè)算子的過(guò)程,輸入圖像到該算子可得到一個(gè)和物體相似的模型。因此重建的目標(biāo)函數(shù)為,其中為算子的參數(shù),為
    發(fā)表于 02-13 09:31 ?696次閱讀

    深度學(xué)習(xí)介紹

    網(wǎng)絡(luò)最終來(lái)實(shí)現(xiàn)更通用的識(shí)別。這些多層的優(yōu)點(diǎn)是各種抽象層次的學(xué)習(xí)特征。例如,若訓(xùn)練深度卷積神經(jīng)網(wǎng)絡(luò)
    發(fā)表于 11-11 07:55

    基于深度圖像重建Matlab代碼

    本文檔內(nèi)容介紹了基于深度圖像重建Matlab代碼,供網(wǎng)友參考。
    發(fā)表于 09-15 10:03 ?21次下載
    基于<b class='flag-5'>深度圖像</b><b class='flag-5'>重建</b>Matlab代碼

    基于深度學(xué)習(xí)的多尺幅深度網(wǎng)絡(luò)監(jiān)督模型

    針對(duì)場(chǎng)景標(biāo)注中如何產(chǎn)生良好的內(nèi)部視覺(jué)信息表達(dá)和有效利用上下文語(yǔ)義信息兩個(gè)至關(guān)重要的問(wèn)題,提出一種基于深度學(xué)習(xí)的多尺度深度網(wǎng)絡(luò)監(jiān)督模型。與傳統(tǒng)多尺度方法不同,模型主要由兩個(gè)
    發(fā)表于 11-28 14:22 ?0次下載
    基于<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>的多尺幅<b class='flag-5'>深度</b><b class='flag-5'>網(wǎng)絡(luò)</b>監(jiān)督模型

    數(shù)據(jù)外補(bǔ)償?shù)?b class='flag-5'>深度網(wǎng)絡(luò)超分辨率重建

    分辨率重建結(jié)果.為了克服歧義性造成的高頻細(xì)節(jié)損失。本文提出了一種基于深度網(wǎng)絡(luò)。利用在線檢索的數(shù)據(jù)進(jìn)行高頻信息補(bǔ)償?shù)?b class='flag-5'>圖像超分辨率重建算法.該方
    發(fā)表于 12-15 14:34 ?0次下載

    基于鄰域特征學(xué)習(xí)的單幅圖像超分辨重建

    針對(duì)圖像重建過(guò)程中待插值點(diǎn)灰度估計(jì)不準(zhǔn)確的問(wèn)題,提出一種基于鄰域特征學(xué)習(xí)的單幅圖像超分辨回歸分析方法。在輸入低分辨率
    發(fā)表于 02-07 15:59 ?1次下載
    基于鄰域<b class='flag-5'>特征</b><b class='flag-5'>學(xué)習(xí)</b>的單幅<b class='flag-5'>圖像</b>超分辨<b class='flag-5'>重建</b>

    一種新的目標(biāo)分類特征深度學(xué)習(xí)模型

    受限和高識(shí)別率要求,提取圖像的局部方向梯度直方圖( HOG)特征,構(gòu)建稀疏自編碼器棧對(duì)HOG特征進(jìn)行深層次編碼,設(shè)計(jì)Softmax多分類器對(duì)所抽取的特征進(jìn)行分類。在
    發(fā)表于 03-20 17:30 ?0次下載
    一種新的目標(biāo)分類<b class='flag-5'>特征</b><b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>模型

    基于深度學(xué)習(xí)圖像塊型超分辨重建的經(jīng)典論文進(jìn)行關(guān)鍵技術(shù)點(diǎn)分析

    基于Per-Pixel Loss的超分辨重建網(wǎng)絡(luò)目標(biāo)在于直接最小化高清原圖與超分辨重建圖像之間的差異,使得超分辨重建圖像逐步逼近原圖的清晰效
    的頭像 發(fā)表于 03-26 11:15 ?6077次閱讀
    基于<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>的<b class='flag-5'>圖像</b>塊型超分辨<b class='flag-5'>重建</b>的經(jīng)典論文進(jìn)行關(guān)鍵技術(shù)點(diǎn)分析

    圖像恢復(fù)這個(gè)任務(wù),如何使用深度圖像先驗(yàn)來(lái)解決此任務(wù)

    深度卷積網(wǎng)絡(luò)因其能夠從大量圖像數(shù)據(jù)集中學(xué)習(xí)而獲得成功。 Dmitry Ulyanov的論文“Deep Image Prior”表明,為了解決像圖像
    的頭像 發(fā)表于 02-18 16:38 ?4833次閱讀

    深度學(xué)習(xí)不是萬(wàn)靈藥 神經(jīng)網(wǎng)絡(luò)3D建模其實(shí)只是圖像識(shí)別

    隨著深度學(xué)習(xí)的大熱,許多研究都致力于如何從單張圖片生成3D模型。但近期一項(xiàng)研究表明,幾乎所有基于深度神經(jīng)網(wǎng)絡(luò)的3D中重建工作,實(shí)際上并不是
    的頭像 發(fā)表于 06-17 11:21 ?4637次閱讀

    深度學(xué)習(xí)時(shí)代的來(lái)為基于圖像的三維重建提供了新的可能

    這些方法在近年來(lái)取得了令人矚目的效果,在通用物體重建和類似人臉的特殊物體重建上都取得了不錯(cuò)的結(jié)果。接下來(lái)我們將從重建問(wèn)題的流程,三維表示,基于不同表示的重建方法、模型架構(gòu)、數(shù)據(jù)集以及訓(xùn)
    的頭像 發(fā)表于 08-02 15:04 ?5949次閱讀

    一種多層級(jí)特征融合就的深度卷積網(wǎng)絡(luò)

    使用Resnetl01網(wǎng)絡(luò)結(jié)構(gòu)將圖像轉(zhuǎn)換為高維特征圖,解碼器使用上采樣卷積模塊從高維特征圖中重建深度圖
    發(fā)表于 03-16 09:21 ?7次下載
    一種多層級(jí)<b class='flag-5'>特征</b>融合就的<b class='flag-5'>深度</b>卷積<b class='flag-5'>網(wǎng)絡(luò)</b>

    基于特征圖注意力機(jī)制的圖像超分辨重建網(wǎng)絡(luò)模型

    圖像超分辨率重建中的高頻分量通常包含較多輪廓、紋理等細(xì)節(jié)信息,為更好地處理特征圖中的高頻分量與低頻分量,實(shí)現(xiàn)自適應(yīng)調(diào)整信道特征,提岀一種基于特征
    發(fā)表于 03-22 14:45 ?22次下載
    基于<b class='flag-5'>特征</b>圖注意力機(jī)制的<b class='flag-5'>圖像</b>超分辨<b class='flag-5'>重建網(wǎng)絡(luò)</b>模型

    基于復(fù)合的深度神經(jīng)網(wǎng)絡(luò)圖像超分辨率重建

    針對(duì)現(xiàn)有單圖像超分辨率重建時(shí)主要采用的簡(jiǎn)單鏈?zhǔn)蕉询B的單一網(wǎng)絡(luò)存在層間聯(lián)系弱、網(wǎng)絡(luò)關(guān)注點(diǎn)單一以及分層特征不能充分利用等問(wèn)題,提出了一種復(fù)合的
    發(fā)表于 04-13 10:35 ?5次下載
    基于復(fù)合的<b class='flag-5'>深度</b>神經(jīng)<b class='flag-5'>網(wǎng)絡(luò)</b>的<b class='flag-5'>圖像</b>超分辨率<b class='flag-5'>重建</b>

    基于改進(jìn)殘差網(wǎng)絡(luò)的水下圖像重建修復(fù)

    ,該方法將網(wǎng)絡(luò)中的殘差密集塊和自適應(yīng)機(jī)制進(jìn)行融合,有效解決深度學(xué)習(xí)網(wǎng)絡(luò)中經(jīng)常遇到的梯度爆炸冋題,冋時(shí)能夠抑制無(wú)用信息的學(xué)習(xí),充分利用重要特征
    發(fā)表于 06-17 15:37 ?10次下載