0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

?多模態(tài)風(fēng)格遷移——生成更加美麗動人的風(fēng)格圖像

nlfO_thejiangme ? 來源:lp ? 2019-05-01 14:11 ? 次閱讀

對風(fēng)格圖像的風(fēng)格進行聚類實現(xiàn)多模態(tài)表示,并對風(fēng)格與內(nèi)容圖的空間特征進行匹配實現(xiàn)了具有多種模態(tài)風(fēng)格的、具有內(nèi)容自適應(yīng)性風(fēng)格遷移。

圖像風(fēng)格遷移是一種利用風(fēng)格圖像中的特征將內(nèi)容圖像渲染成類似風(fēng)格圖像效果的技術(shù),隨著深度學(xué)習(xí)的發(fā)展越來越精美的圖像被生成出來甚至可以與專業(yè)畫家相媲美。由于人們發(fā)現(xiàn)卷積特征間的相關(guān)性可以表示圖像的風(fēng)格,這使得迭代優(yōu)化網(wǎng)絡(luò)參數(shù)或者利用前傳網(wǎng)絡(luò)生成風(fēng)格圖像成為可能,目前的方法主要利用風(fēng)格圖的預(yù)訓(xùn)練模型來對任意的輸入進行風(fēng)格化處理,或者抽取風(fēng)格圖的特征對內(nèi)容圖進行風(fēng)格化。這些方法大都假設(shè)圖像的風(fēng)格可以通過格拉姆矩陣等深度特征的全局統(tǒng)計信息來描述。

盡管這些方法可以保存內(nèi)容圖像并匹配風(fēng)格圖像的特征,但很多時候還是會在局部產(chǎn)生一系列扭曲和變形,造成明顯的人工痕跡。如何處理這些問題成為了風(fēng)格遷移領(lǐng)域的研究難點和熱點。下圖展示了先前方法的風(fēng)格遷移圖像的一些結(jié)果,其中第一列大圖為內(nèi)容圖,右下角小圖為風(fēng)格圖,最后一列為本文提出的多模態(tài)風(fēng)格遷移(MultimodalStyleTransfer,MST)方法:

在第一行中左下角的風(fēng)格圖像中包含一系列復(fù)雜的紋理和線條,先前的方法無法區(qū)分風(fēng)格圖像中不同的風(fēng)格,并且對于內(nèi)容圖像不加區(qū)分地進行了風(fēng)格化處理,這使得在背景天空等區(qū)域出現(xiàn)了一些較為明顯的線條,破壞了內(nèi)容圖原有的連續(xù)性。讓我們再來看看第二行,這里的風(fēng)格圖像模式清晰,包含了統(tǒng)一的背景和紅色/黑色的前景。AdaIN,WCT和LST等方法都無法較好的保持內(nèi)容圖像的結(jié)構(gòu)特征,受到?jīng)_洗效應(yīng)(wash-outartifacts.)的影響使得很多內(nèi)容細節(jié)變得模糊。這主要是由于單調(diào)的背景在風(fēng)格圖中占比過大,造成了背景全局風(fēng)格特征中占據(jù)了主導(dǎo)地位。從這些結(jié)果中可以看出類似格拉姆矩陣或協(xié)方差均值這類全局單模態(tài)的統(tǒng)計表示不足以表達特征圖豐富、多模態(tài)的特征。理想的特征表達應(yīng)該是具有空間分布的特征模式。

盡管基于圖像片的方法這些模型可以在內(nèi)容圖像和風(fēng)格圖像具有相似結(jié)構(gòu)特征時生成視覺效果較好的風(fēng)格圖,但這些方法很多時候會在生成圖像中引入不該出現(xiàn)的風(fēng)格模式。在上圖中最后兩行的圖像中可以明顯看到這些結(jié)果。例如風(fēng)格圖像中的眼睛、嘴唇等模式都會被copy到背景中(倒數(shù)第二行),甚至在最后一行中我們可以看出內(nèi)容圖像已經(jīng)發(fā)生改變,女孩的臉型受到了風(fēng)格圖像的影響。這些缺點大大限制了生成高質(zhì)量風(fēng)格圖像的應(yīng)用,為了解決這些問題研究人員從風(fēng)格分布的角度提出了一種多模態(tài)風(fēng)格遷移的方法,實現(xiàn)了靈活、通用風(fēng)格化過程,并充分利用并有效平衡了參數(shù)化和非參數(shù)化方法的優(yōu)勢。

具體來說,研究人員提出了多模態(tài)風(fēng)格表示方法來表示風(fēng)格圖的特征,并基于圖方法的匹配機制來實現(xiàn)風(fēng)格特征和內(nèi)容圖像的匹配。研究人員在對多種風(fēng)格圖像風(fēng)格分布分析的基礎(chǔ)上認為多模態(tài)表示是更為有效的風(fēng)格表達方式,并利用表示不同特定特征的風(fēng)格集合來實現(xiàn)多模表示,可利用這些特征來實現(xiàn)會對不同特征的混合與匹配,得到豐富多彩的風(fēng)格化圖像。

為了實現(xiàn)風(fēng)格-內(nèi)容的匹配,研究人員提出了基于圖的能量最小化方法,并利用圖割的方式來求解。風(fēng)格表達通過內(nèi)容的空間特征來匹配。最后研究人員還利用了不同的子風(fēng)格數(shù)量探索了多模態(tài)表達的魯棒性和有效性,實驗表明MST可有效改進現(xiàn)有風(fēng)格化方法表現(xiàn)。

接下來讓我們一起來探索高效的多模態(tài)風(fēng)格表示,并研究如何為每一種內(nèi)容特征與風(fēng)格特征進行匹配,最后將在對應(yīng)的特征子空間中實現(xiàn)風(fēng)格轉(zhuǎn)換。

多模態(tài)表示

基于卷積的圖像風(fēng)格遷移主要利用兩種方法來對特征進行表示,一種假設(shè)全局具有相同分布并用全局特征來表風(fēng)格,另一種則基于圖像片提取風(fēng)格。當風(fēng)格圖像具有多種特征時、單一均勻的方法無法較好的處理。在下圖中可以看到對于風(fēng)格特征的聚類,明顯具有多種不同的風(fēng)格模式。

而基于圖像片的方法來說,會造成多個相同模式的圖像片被copy到最終結(jié)果中造成不連續(xù)不美觀的局部畸變。為了處理這些問題研究人員提出了利用多模態(tài)來表示風(fēng)格圖的特征,通過將風(fēng)格分為多個子集實現(xiàn)了高維空間中的模態(tài)聚類,在特征空間中通過K均值聚類來對特征點進行分割:

特征Fs被分解成多個子特征,每個特征都有自己的特征標簽lk。在特征空間中的鄰近點具有相同的視覺特征。通過這樣的方法就將先前均一模式的特征表達分解到了多個子空間中。

基于圖的風(fēng)格匹配

針對內(nèi)容圖,同樣需要抽取特征。隨后對內(nèi)容特征和風(fēng)格特征進行距離測量,基于余弦距離計算出每一個風(fēng)格特征與內(nèi)容特征的距離,并最小化數(shù)據(jù)能量函數(shù)來匹配對應(yīng)的特征:

隨后還需要考慮內(nèi)容圖像的空間信息來保留內(nèi)容的連續(xù)性和邊緣的完整,并希望內(nèi)容圖像同一局域擁有相同的特征標簽,所以還引入了內(nèi)容平滑項:

最后將兩項能量函數(shù)聯(lián)合起來并最小化就能得到風(fēng)格與對應(yīng)內(nèi)容匹配的結(jié)果。研究人員提出了基于圖的方法來最小化,并最終實現(xiàn)了像素級的風(fēng)格匹配。

實驗發(fā)現(xiàn),風(fēng)格特征的聚類將抽取出圖像中的語義信息。在獲得像素級的匹配圖后,就可以更具內(nèi)容的特征自適應(yīng)的匹配不同風(fēng)格來實現(xiàn)更為有效的圖像風(fēng)格化操作。下圖分別顯示了具有兩個/三個子風(fēng)格的風(fēng)格匹配圖像。

通過一系列的實驗表明,這種方法在邊緣保留、特征自適應(yīng)匹配等方面具有十分優(yōu)異的表現(xiàn)。研究人員探索了不同風(fēng)格聚類數(shù)量對于風(fēng)格化的影響,可以看到越多的子風(fēng)格數(shù)對圖像的表達越完整,遷移后的圖像具有更好的視覺連續(xù)性:

在匹配圖中我們可以看到不同特征的分布區(qū)域,下圖中可以看到聚類數(shù)為3時不同特征對應(yīng)內(nèi)容圖和特征圖的區(qū)域模式。

這種利用多模態(tài)的風(fēng)格表示方法有效的將風(fēng)格圖中的不同特征進行了更為豐富完整的表示,并利用特征匹配的方法為不同的內(nèi)容區(qū)域匹配不同的特征,自適應(yīng)的實現(xiàn)具有空間分布的風(fēng)格遷移。MST的思想可以有效拓展到現(xiàn)有的風(fēng)格遷移方法中,提高最終生成的風(fēng)格圖像的視覺效果。最后讓我們再來欣賞一些機器生產(chǎn)的美麗畫作吧!

MST方法得到的結(jié)果與其他方法的比較

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 圖像
    +關(guān)注

    關(guān)注

    2

    文章

    1078

    瀏覽量

    40375
  • 視覺
    +關(guān)注

    關(guān)注

    1

    文章

    146

    瀏覽量

    23866
  • K均值
    +關(guān)注

    關(guān)注

    0

    文章

    6

    瀏覽量

    6862

原文標題:?多模態(tài)風(fēng)格遷移——生成更加美麗動人的風(fēng)格圖像

文章出處:【微信號:thejiangmen,微信公眾號:將門創(chuàng)投】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    關(guān)于深度學(xué)習(xí)中的圖像處理應(yīng)用

    神經(jīng)風(fēng)格遷移(NST,Neural Style Transfe) 神經(jīng)風(fēng)格遷移是指將參考圖像風(fēng)格
    發(fā)表于 08-06 16:52 ?1880次閱讀

    教你如何用OpenCV、Python和深度學(xué)習(xí)技術(shù)對圖像和實時視頻進行神經(jīng)風(fēng)格遷移

    雖然Gatys等人的方法能生成不錯的神經(jīng)風(fēng)格遷移結(jié)果,但是它的速度非常慢。2016年,Johnson等人在Gatys的基礎(chǔ)上提出的全新算法速度快了三倍,但同時也存在著缺點,即用戶不能隨機選擇想要應(yīng)用的
    的頭像 發(fā)表于 08-31 09:47 ?7578次閱讀

    Linux內(nèi)核編碼風(fēng)格(編程代碼風(fēng)格推薦)

    這是翻譯版本,英文原版是linux源碼Documentation文件夾下的CodingStyle一個良好風(fēng)格的程序看起來直觀、美觀,便于閱讀,還能有助于對程序的理解,特別在代碼量比較大情況下更顯
    發(fā)表于 08-24 09:45

    【洞幺邦】基于深度學(xué)習(xí)的GAN應(yīng)用風(fēng)格遷移

    和虛假,最后兩者到達動態(tài)的平和的時候,生成網(wǎng)絡(luò)G就可以生成以假亂真的圖片了。GAN應(yīng)用風(fēng)格遷移:在最一開始那個吶喊的例子中,人類騎行的圖像
    發(fā)表于 07-01 10:53

    遷移學(xué)習(xí)

    的領(lǐng)域適配。遷移效果的可視化,利用機器學(xué)習(xí)庫scikit-learn中的t-SNE對遷移過后的高維數(shù)據(jù)進行可視化。十、實驗實操之圖片與視頻風(fēng)格遷移實踐掌握基于
    發(fā)表于 04-21 15:15

    山東分公司的風(fēng)格山東分公司的風(fēng)格山東分公司的風(fēng)格山東分公司的風(fēng)格

    東分公司的風(fēng)格東分公司的風(fēng)格東分公司的風(fēng)格東分公司的風(fēng)格東分公司的風(fēng)格東分公司的風(fēng)格東分公司的
    的頭像 發(fā)表于 09-07 14:57 ?1267次閱讀

    用TensorFlow.js在瀏覽器中部署可進行任意圖像風(fēng)格遷移的模型

    Reiichiro Nakano提供的模型突破了以往模型的局限,它能將任何風(fēng)格圖像分解為表示其風(fēng)格的100維向量,然后把這些向量結(jié)合照片信息一起饋送到另一個神經(jīng)網(wǎng)絡(luò),以產(chǎn)生最終的風(fēng)格
    的頭像 發(fā)表于 11-22 09:01 ?6395次閱讀

    新GAN技術(shù)應(yīng)用多層次特征的風(fēng)格遷移人臉生成器你了解嗎

    GAN 生成器架構(gòu)借鑒了風(fēng)格遷移研究,可對高級屬性(如姿勢、身份)進行自動學(xué)習(xí)和無監(jiān)督分割,且生成圖像還具備隨機變化(如雀斑、頭發(fā))。該架
    的頭像 發(fā)表于 12-23 11:03 ?7014次閱讀
    新GAN技術(shù)應(yīng)用多層次特征的<b class='flag-5'>風(fēng)格</b><b class='flag-5'>遷移</b>人臉<b class='flag-5'>生成</b>器你了解嗎

    風(fēng)格遷移中如何進行數(shù)據(jù)增強

    這是一篇關(guān)于風(fēng)格遷移中如何進行數(shù)據(jù)增強的論文。在introduction部分,informal--formal 的風(fēng)格遷移問題,最大的障礙是訓(xùn)練數(shù)據(jù)的不足。為了解決此問題,本篇論文提出
    的頭像 發(fā)表于 01-13 09:41 ?2487次閱讀

    一種具有語義區(qū)域風(fēng)格約束的圖像生成框架

    生成對抗網(wǎng)絡(luò)近年來發(fā)展迅速,其中語義區(qū)域分割與生成模型的結(jié)合為圖像生成技術(shù)研究提供了新方向。在當前的研究中,語義信息作為指導(dǎo)生成的條件,可以
    發(fā)表于 04-13 15:47 ?5次下載
    一種具有語義區(qū)域<b class='flag-5'>風(fēng)格</b>約束的<b class='flag-5'>圖像</b><b class='flag-5'>生成</b>框架

    基于尺度筆刷的分層圖像優(yōu)化風(fēng)格化繪制算法

    基于圖像的油畫風(fēng)格化繪制是計算機圖形學(xué)領(lǐng)域非真實感繪制研究的熱點之一。為了進一步提高圖像油畫風(fēng)格化的質(zhì)量,提出了一種基于尺度筆刷的分層
    發(fā)表于 06-07 11:23 ?5次下載

    PyTorch教程14.12之神經(jīng)風(fēng)格遷移

    電子發(fā)燒友網(wǎng)站提供《PyTorch教程14.12之神經(jīng)風(fēng)格遷移.pdf》資料免費下載
    發(fā)表于 06-05 11:21 ?0次下載
    PyTorch教程14.12之神經(jīng)<b class='flag-5'>風(fēng)格</b><b class='flag-5'>遷移</b>

    PyTorch教程-14.12. 神經(jīng)風(fēng)格遷移

    個方面。要為照片應(yīng)用理想的風(fēng)格,您可能需要嘗試多種不同的濾鏡組合。這個過程與調(diào)整模型的超參數(shù)一樣復(fù)雜。 在本節(jié)中,我們將利用 CNN 的分層表示將一幅圖像風(fēng)格自動應(yīng)用到另一幅圖像,
    的頭像 發(fā)表于 06-05 15:44 ?640次閱讀
    PyTorch教程-14.12. 神經(jīng)<b class='flag-5'>風(fēng)格</b><b class='flag-5'>遷移</b>

    基于PyQT5與ONNXRUNTIME實現(xiàn)風(fēng)格遷移應(yīng)用

    2023年一月份跟二月份創(chuàng)建了一個PyQT5人工智能軟件開發(fā)系列的文章系列,過去的兩個月都沒怎么更新,心里一直想有時間繼續(xù)更新下去,今天又更新了一篇,基于PyQT5實現(xiàn)多線程、界面化、風(fēng)格遷移模型的實時推理。
    的頭像 發(fā)表于 10-25 10:35 ?480次閱讀
    基于PyQT5與ONNXRUNTIME實現(xiàn)<b class='flag-5'>風(fēng)格</b><b class='flag-5'>遷移</b>應(yīng)用

    基于OpenCV的DNN圖像風(fēng)格遷移

    圖像風(fēng)格遷移已經(jīng)屬于比較成熟的領(lǐng)域了,現(xiàn)在連實時的風(fēng)格遷移都不成問題。之前一直想出一篇這樣的文章,但無奈于大部分開源項目配置起來非常麻煩,比
    的頭像 發(fā)表于 10-30 10:03 ?531次閱讀