0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

一種可以編輯圖像或重建已損壞圖像的深度學(xué)習(xí)方法

DPVg_AI_era ? 來(lái)源:未知 ? 作者:李倩 ? 2018-04-26 15:19 ? 次閱讀

英偉達(dá)的研究人員發(fā)布了一種可以編輯圖像或重建已損壞圖像的深度學(xué)習(xí)方法,實(shí)現(xiàn)了一鍵P圖,而且“毫無(wú)ps痕跡”。通過(guò)使用“部分卷積”層,該方法優(yōu)于其他方法。

計(jì)算機(jī)視覺(jué)研究領(lǐng)域,NVIDIA常常讓人眼前一亮。

比如“用Progressive Growing的方式訓(xùn)練 GAN,生成超逼真高清圖像”,“用條件 GAN 進(jìn)行 2048x1024 分辨率的圖像合成和處理”的pix2pixHD項(xiàng)目,或者腦洞大開(kāi)的讓晴天下大雨、小貓變獅子、黑夜轉(zhuǎn)白天的“無(wú)監(jiān)督圖像翻譯網(wǎng)絡(luò)”(Unsupervised Image-to-Image Translation Networks)。

近日,NVIDIA在arXiv放出一篇今年ICLR的論文,同樣很厲害。論文題為“Image Inpainting for Irregular Holes Using Partial Convolutions”,即使用“Partial Convolutions”進(jìn)行圖像修復(fù)。

視頻中左側(cè)的操作界面,只需用工具將圖像中不需要的內(nèi)容簡(jiǎn)單涂抹掉,哪怕形狀很不規(guī)則,NVIDIA的模型能夠?qū)D像“復(fù)原”,用非常逼真的畫(huà)面填補(bǔ)被涂抹的空白。可謂是一鍵P圖,而且“毫無(wú)ps痕跡”。

該研究來(lái)自Nvidia的Guilin Liu等人的團(tuán)隊(duì),他們發(fā)布了一種可以編輯圖像或重建已損壞圖像的深度學(xué)習(xí)方法,即使圖像穿了個(gè)洞或丟失了像素。這是目前state-of-the-art的方法。

該方法還可以通過(guò)移除圖像中的某些內(nèi)容,并填補(bǔ)移除內(nèi)容后造成的空白,從而實(shí)現(xiàn)編輯圖像。

這個(gè)過(guò)程叫做“image inpainting”,可以在圖片編輯軟件中實(shí)現(xiàn)去除不需要的內(nèi)容,同時(shí)用計(jì)算機(jī)生成的逼真的替代方式填補(bǔ)空白。

圖:被遮蓋的圖像,及使用基于部分卷積的網(wǎng)絡(luò)得到的修復(fù)結(jié)果

“我們的模型可以很好地處理任何形狀、大小、位置或距離圖像邊界任何距離的空白。以前的深度學(xué)習(xí)方法主要集中在位于圖像中心附近的矩形區(qū)域,并且通常需要依賴成本很高的后期處理?!坝ミ_(dá)的研究人員在他們的研究報(bào)告中寫(xiě)道,“此外,我們的模型能夠很好地處理越來(lái)越大的空白區(qū)域。”

為了訓(xùn)練神經(jīng)網(wǎng)絡(luò),研究團(tuán)隊(duì)首先生成了55116個(gè)隨機(jī)色條、形狀和大小任意的masks,用于訓(xùn)練。他們還生成了25000個(gè)圖像用于測(cè)試。為了提高重建圖像的精度,研究人員根據(jù)相對(duì)于輸入圖像的大小,將這些訓(xùn)練圖像進(jìn)一步分為6類(lèi)。

圖:一些用于測(cè)試的masks

使用NVIDIATeslaV100GPU和cuDNN加速的PyTorch深度學(xué)習(xí)框架,該團(tuán)隊(duì)通過(guò)將生成的mask應(yīng)用在ImageNet數(shù)據(jù)集Places2和CelebA-HQ兩個(gè)數(shù)據(jù)集的圖像,訓(xùn)練其神經(jīng)網(wǎng)絡(luò)。

圖:ImageNet上的測(cè)試結(jié)果對(duì)比

圖:Place2數(shù)據(jù)集上的測(cè)試結(jié)果對(duì)比

在訓(xùn)練階段,將空白或缺失的部分引入上述數(shù)據(jù)集的完整訓(xùn)練圖像中,以使網(wǎng)絡(luò)能夠?qū)W習(xí)重建缺失的像素。

在測(cè)試階段,另一批沒(méi)有在訓(xùn)練期間使用的空白或缺失部分被引入數(shù)據(jù)集里的測(cè)試圖像,以對(duì)重建的圖像的精度進(jìn)行無(wú)偏驗(yàn)證。

圖:基于典型卷積層的結(jié)果(Conv)和“部分卷積”層的結(jié)果(PConv)對(duì)比

研究人員表示,現(xiàn)有的基于深度學(xué)習(xí)的圖像修復(fù)方法不夠好,因?yàn)閬G失像素的輸出必然取決于輸入的值,而這些輸入必須提供給神經(jīng)網(wǎng)絡(luò),以找出丟失的像素。這就導(dǎo)致圖像中出現(xiàn)諸如顏色差異或模糊之類(lèi)的artifacts。

為了解決這個(gè)問(wèn)題,NVIDIA團(tuán)隊(duì)開(kāi)發(fā)了一種方法,確保丟失像素的輸出不依賴于為這些像素提供的輸入的值。這種方法使用一個(gè)“部分卷積”層,根據(jù)其對(duì)相應(yīng)的接受域(receptivefield)的有效性,對(duì)每個(gè)輸出進(jìn)行重新歸一化(renormalization)。這種重新歸一化可以確保輸出值與每個(gè)接受域中缺失像素的值無(wú)關(guān)。

該模型是利用這些部分卷積實(shí)現(xiàn)的UNet架構(gòu)構(gòu)建的。使用一組損失函數(shù),匹配VGG模型的特征損失以及風(fēng)格損失,進(jìn)而訓(xùn)練模型以產(chǎn)生逼真的輸出。

表:各種不同方法的結(jié)果對(duì)比

研究團(tuán)隊(duì)稱,該模型優(yōu)于以前的方法。

“據(jù)我們所知,我們是第一個(gè)在不規(guī)則形狀的孔洞上展示深度學(xué)習(xí)圖像修復(fù)模型效果的人,”NVIDIA的研究人員說(shuō)。

研究人員還在論文中提及,相同的框架也可以用來(lái)處理圖像超分辨率任務(wù)。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4717

    瀏覽量

    99996
  • 圖像
    +關(guān)注

    關(guān)注

    2

    文章

    1075

    瀏覽量

    40266
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5422

    瀏覽量

    120587

原文標(biāo)題:震撼!英偉達(dá)用深度學(xué)習(xí)做圖像修復(fù),毫無(wú)ps痕跡

文章出處:【微信號(hào):AI_era,微信公眾號(hào):新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    通過(guò)深度學(xué)習(xí)圖像三維物體重建研究方案

    假設(shè) 為物體的多張RGB圖片。三維重建可以總結(jié)為個(gè)學(xué)習(xí)預(yù)測(cè)算子的過(guò)程,輸入
    發(fā)表于 02-13 09:31 ?695次閱讀

    討論紋理分析在圖像分類(lèi)中的重要性及其在深度學(xué)習(xí)中使用紋理分析

    地執(zhí)行基于紋理特征的分類(lèi)任務(wù)。為了讓深度學(xué)習(xí)在基于紋理的數(shù)據(jù)上更好地工作,需要有一種方法,可以圖像中提取紋理特定的特征,并將其傳遞給全連接
    發(fā)表于 10-26 16:57

    基于深度圖像重建Matlab代碼

    本文檔內(nèi)容介紹了基于深度圖像重建Matlab代碼,供網(wǎng)友參考。
    發(fā)表于 09-15 10:03 ?21次下載
    基于<b class='flag-5'>深度圖像</b><b class='flag-5'>重建</b>Matlab代碼

    單幀圖像重建方法

    針對(duì)小波域超分辨率方法重建圖像存在的模糊效應(yīng),提出一種結(jié)合離散小波變換( DWT)、平穩(wěn)小波變換(SWT)和非局部平均(NLM)的單幀圖像
    發(fā)表于 02-02 15:06 ?1次下載
    單幀<b class='flag-5'>圖像</b><b class='flag-5'>重建</b><b class='flag-5'>方法</b>

    基于鄰域特征學(xué)習(xí)的單幅圖像超分辨重建

    針對(duì)圖像重建過(guò)程中待插值點(diǎn)灰度估計(jì)不準(zhǔn)確的問(wèn)題,提出一種基于鄰域特征學(xué)習(xí)的單幅圖像超分辨回歸分析方法
    發(fā)表于 02-07 15:59 ?1次下載
    基于鄰域特征<b class='flag-5'>學(xué)習(xí)</b>的單幅<b class='flag-5'>圖像</b>超分辨<b class='flag-5'>重建</b>

    一種新型分割圖像中人物的方法,基于人物動(dòng)作辨認(rèn)

    圖像分割的方法是先對(duì)物體進(jìn)行檢測(cè),然后用邊界框?qū)Ξ?huà)中物體進(jìn)行分割。最近,例如Mask R-CNN的深度學(xué)習(xí)方法也被用于
    的頭像 發(fā)表于 04-10 15:02 ?5512次閱讀
    <b class='flag-5'>一種</b>新型分割<b class='flag-5'>圖像</b>中人物的<b class='flag-5'>方法</b>,基于人物動(dòng)作辨認(rèn)

    NVIDIA一種先進(jìn)的深度學(xué)習(xí)方法可用于對(duì)圖像進(jìn)行編輯

    研究人員表示,當(dāng)前基于深度學(xué)習(xí)圖像修復(fù)方法成效有限,因?yàn)獒槍?duì)丟失像素的輸出必然取決于為找出丟失像素而必須提供給神經(jīng)網(wǎng)絡(luò)的輸入值。這就會(huì)導(dǎo)致圖像
    的頭像 發(fā)表于 05-09 16:43 ?4613次閱讀

    到底誰(shuí)可以產(chǎn)生更好的圖像修復(fù)結(jié)果?什么是圖像修補(bǔ)?

    在自動(dòng)識(shí)別方法中:排名第的是深度學(xué)習(xí)方法-基于生成的圖像修復(fù)方法。但這不是
    的頭像 發(fā)表于 10-18 14:27 ?1.2w次閱讀

    使用多孔卷積神經(jīng)網(wǎng)絡(luò)解決機(jī)器學(xué)習(xí)圖像深度不準(zhǔn)確的方法說(shuō)明

    針對(duì)在傳統(tǒng)機(jī)器學(xué)習(xí)方法下單幅圖像深度估計(jì)效果差、深度值獲取不準(zhǔn)確的問(wèn)題,提出了一種基于多孔卷積神經(jīng)網(wǎng)絡(luò)(ACNN)的
    發(fā)表于 10-30 14:58 ?10次下載
    使用多孔卷積神經(jīng)網(wǎng)絡(luò)解決機(jī)器<b class='flag-5'>學(xué)習(xí)</b>的<b class='flag-5'>圖像</b><b class='flag-5'>深度</b>不準(zhǔn)確的<b class='flag-5'>方法</b>說(shuō)明

    深度學(xué)習(xí)圖像分割的方法和應(yīng)用

    介紹使圖像分割的方法,包括傳統(tǒng)方法深度學(xué)習(xí)方法,以及應(yīng)用場(chǎng)景。 基于人工智能和深度
    的頭像 發(fā)表于 11-27 10:29 ?3048次閱讀

    詳解深度學(xué)習(xí)圖像分割

    基于人工智能和深度學(xué)習(xí)方法的現(xiàn)代計(jì)算機(jī)視覺(jué)技術(shù)在過(guò)去10年里取得了顯著進(jìn)展。如今,它被用于圖像分類(lèi)、人臉識(shí)別、圖像中物體的識(shí)別、視頻分析和分類(lèi)以及機(jī)器人和自動(dòng)駕駛車(chē)輛的
    的頭像 發(fā)表于 01-06 15:50 ?3595次閱讀

    圖像分割的方法,包括傳統(tǒng)方法深度學(xué)習(xí)方法

    許多計(jì)算機(jī)視覺(jué)任務(wù)需要對(duì)圖像進(jìn)行智能分割,以理解圖像中的內(nèi)容,并使每個(gè)部分的分析更加容易。今天的圖像分割技術(shù)使用計(jì)算機(jī)視覺(jué)深度學(xué)習(xí)模型來(lái)理解
    的頭像 發(fā)表于 01-08 14:44 ?9193次閱讀

    一種多粒度融合的模糊規(guī)則系統(tǒng)圖像特征學(xué)習(xí)算法

    大規(guī)模的數(shù)據(jù),且通常被視汋黑盦模型,解釋性較差。針對(duì)上述挑戰(zhàn),以基于模糊規(guī)則推理的TSK模糊系統(tǒng)(TSK-FS)為基礎(chǔ),提出了一種適用于不同規(guī)模數(shù)據(jù)集且易于理解的特征學(xué)習(xí)方法多粒度融合的模糊規(guī)則系統(tǒng)
    發(fā)表于 03-31 14:04 ?9次下載
    <b class='flag-5'>一種</b>多粒度融合的模糊規(guī)則系統(tǒng)<b class='flag-5'>圖像</b>特征<b class='flag-5'>學(xué)習(xí)</b>算法

    一種改進(jìn)的基于LRC-SNN的圖像重建與識(shí)別算法

    圖像集分類(lèi)算法種類(lèi)較多,但多數(shù)存在運(yùn)算繁瑣、計(jì)算成本高和時(shí)效性差的問(wèn)題。為此,提出一種改進(jìn)的圖像重建與識(shí)別算法,利用線性回歸分類(lèi)和共享最近鄰子空間分類(lèi)理論進(jìn)行
    發(fā)表于 04-01 10:28 ?4次下載
    <b class='flag-5'>一種</b>改進(jìn)的基于LRC-SNN的<b class='flag-5'>圖像</b><b class='flag-5'>重建</b>與識(shí)別算法

    一種無(wú)需訓(xùn)練的深度電阻抗圖像重建方法

    近日,記者從中國(guó)科學(xué)技術(shù)大學(xué)獲悉,該校杜江峰院士領(lǐng)銜的中科院微觀磁共振重點(diǎn)實(shí)驗(yàn)室劉東研究員等,提出了一種無(wú)需訓(xùn)練的深度電阻抗圖像重建方法
    的頭像 發(fā)表于 02-21 09:57 ?969次閱讀