0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于擴散模型的圖像生成過程

OpenCV學堂 ? 來源:OpenCV學堂 ? 作者:OpenCV學堂 ? 2023-07-17 11:00 ? 次閱讀

近年來,擴散模型在文本到圖像生成方面取得了巨大的成功,實現(xiàn)了更高圖像生成質(zhì)量,提高了推理性能,也可以激發(fā)擴展創(chuàng)作靈感。

不過僅憑文本來控制圖像的生成往往得不到想要的結(jié)果,比如具體的人物姿勢、面部表情等很難用文本指定。

最近,谷歌發(fā)布了MediaPipe Diffusion插件,可以在移動設(shè)備上運行「可控文本到圖像生成」的低成本解決方案,支持現(xiàn)有的預(yù)訓練擴散模型及其低秩自適應(yīng)(LoRA)變體

背景知識

基于擴散模型的圖像生成過程可以認為是一個迭代去噪過程。

從噪聲圖像開始,在每個步驟中,擴散模型會逐漸對圖像進行降噪以生成符合目標概念的圖像,將文本提示作為條件可以大大提升圖像生成的效果。

對于文本到圖像生成,文本嵌入通過交叉注意層連接到圖像生成模型上,不過仍然有部分信息難以通過文本提示來描述,比如物體的位置和姿態(tài)等。

為了解決這個問題,研究人員提出引入額外的模型添加到擴散模型中,在條件圖像中注入控制信息。

常用的控制文生圖方法包括:

1. 即插即用(Plug-and-Play)用到去噪擴散隱式模型(DDIM)inversion方法,從輸入圖像開始反轉(zhuǎn)生成過程來導(dǎo)出初始噪聲輸入,然后采用擴散模型(Stable Diffusion1.5的情況下需要8.6億參數(shù))對來自輸入圖像的條件進行編碼。

即插即用從復(fù)制的擴散中提取具有自注意力的空間特征,并將其注入到文本轉(zhuǎn)圖像的擴散過程中。

2. ControlNet會創(chuàng)建擴散模型編碼器的一個可訓練副本,通過零初始化參數(shù)后的卷積層連接,將傳遞到解碼器層的條件信息進行編碼。

3. T2I Adapter是一個較小的網(wǎng)絡(luò)(7700萬參數(shù)),在可控生成中可以實現(xiàn)類似的效果,只需要將條件圖像作為輸入,其輸出在所有擴散迭代中共享。

不過T2I適配器模型并不是為便攜式移動設(shè)備設(shè)計的。

MediaPipe Diffusion插件

為了使條件生成更高效、可定制且可擴展,研究人員將MediaPipe擴散插件設(shè)計為一個單獨的網(wǎng)絡(luò):

1. 可插入(Plugable):可以很容易地與預(yù)訓練基礎(chǔ)模型進行連接;

2. 從零開始訓練(Trained from scratch):不使用來自基礎(chǔ)模型的預(yù)訓練權(quán)重;

3. 可移植性(Portable):可以在移動設(shè)備上運行基礎(chǔ)模型,并且推理成本相比原模型來說可以忽略不計。

1bb527f0-23a9-11ee-962d-dac502259ad0.png

即插即用、ControlNet、T2I適配器和MediaPipe擴散插件的對比,*具體數(shù)字會根據(jù)選用模型不同而發(fā)生變化

簡單來說,MediaPipe擴散插件就是一個用于文本到圖像生成的,可在便攜式設(shè)備上運行的模型,從條件圖像中提取多尺度特征,并添加到相應(yīng)層次擴散模型的編碼器中;當連接到文生圖擴散模型時,插件模型可以向圖像生成提供額外的條件信號。

插件網(wǎng)絡(luò)是一個輕量級的模型,只有600萬參數(shù),使用MobileNetv2中的深度卷積和反向瓶頸(inverted bottleneck)在移動設(shè)備上實現(xiàn)快速推理。


MediaPipe擴散模型插件是一個單獨的網(wǎng)絡(luò),輸出可以插入到預(yù)訓練的文本到圖像生成模型中,提取的特征應(yīng)用于擴散模型的相關(guān)下采樣層(藍色)。

與ControlNet不同,研究人員在所有擴散迭代中注入相同的控制功能,所以對于圖像生成過程只需要運行一次插件,節(jié)省了計算量。

下面的例子中可以看到,控制效果在每個擴散步驟都是有效的,即使在前期迭代步中也能夠控制生成過程;更多的迭代次數(shù)可以改善圖像與文本提示的對齊,并生成更多的細節(jié)。


使用MediaPipe擴散插件進行生成過程的演示

示例

在這項工作中,研究人員開發(fā)了基于擴散的文本到圖像生成模型與MediaPipe face landmark,MediaPipe holistic landmark,深度圖和Canny邊緣的插件。

對于每個任務(wù),從超大規(guī)模的圖像-文本數(shù)據(jù)集中選擇約10萬張圖像,并使用相應(yīng)的MediaPipe解決方案計算控制信號,使用PaLI優(yōu)化后的描述來對插件進行訓練。

Face Landmark

MediaPipe Face Landmarker任務(wù)計算人臉的478個landmark(具有注意力)。

研究人員使用MediaPipe中的drawing utils來渲染人臉,包括臉部輪廓、嘴巴、眼睛、眉毛和虹膜,并使用不同的顏色進行表示。

下面這個例子展現(xiàn)了通過調(diào)節(jié)面網(wǎng)格和提示隨機生成的樣本;作為對比,ControlNet和Plugin都可以在給定條件下控制文本到圖像的生成。

用于文本到圖像生成的Face-landmark插件,與ControlNet進行比較。

Holistic Landmark

MediaPipe Holistic Landmark任務(wù)包括身體姿勢、手和面部網(wǎng)格的landmark,可以通過調(diào)節(jié)整體特征來生成各種風格化的圖像。



用于文本到圖像生成的Holistic landmark插件。

深度

深度插件的文本到圖像生成。

Canny Edge

用于生成文本到圖像的Canny-edge插件。

評估

研究人員對face landmark插件進行定量評估以證明該模型的性能,評估數(shù)據(jù)集包含5000張人類圖像,使用的評估指標包括Fréchet起始距離(FID)和CLIP分數(shù)。

基礎(chǔ)模型使用預(yù)訓練的文本到圖像擴散模型Stable Diffusion v1.5

1f42b270-23a9-11ee-962d-dac502259ad0.png

FID、CLIP和推理時間的定量比較

從實驗結(jié)果中的FID和CLIP分數(shù)來看,ControlNet和MediaPipe擴散插件生成的樣本質(zhì)量比基礎(chǔ)模型好得多。

與ControlNet不同,插件模型只需要為每個生成的圖像運行一次,不需要在每個去噪步中都運行,所以推理時間只增加了2.6%

研究人員在服務(wù)器機器(使用Nvidia V100 GPU)和移動端設(shè)備(Galaxy S23)上測量了三種模型的性能:在服務(wù)器上,使用50個擴散步驟運行所有三個模型;在移動端上,使用MediaPipe圖像生成應(yīng)用程序運行20個擴散步驟。

與ControlNet相比,MediaPipe插件在保持樣本質(zhì)量的同時,在推理效率方面表現(xiàn)出明顯的優(yōu)勢。

1f64944e-23a9-11ee-962d-dac502259ad0.png

插件在不同移動的設(shè)備上的推理時間(ms)

總結(jié)

在這項工作中,研究人員提出了MediaPipe,一個可在移動端使用的、有條件的文本到圖像生成插件,將從條件圖像中提取的特征注入擴散模型,從而控制圖像的生成過程。

便攜式插件可以連接到在服務(wù)器或設(shè)備上運行的預(yù)訓練的擴散模型,通過在設(shè)備上完全運行文本到圖像生成和插件,可以更靈活地應(yīng)用生成式AI

責任編輯:彭菁

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 解碼器
    +關(guān)注

    關(guān)注

    9

    文章

    1129

    瀏覽量

    40636
  • 編碼器
    +關(guān)注

    關(guān)注

    45

    文章

    3573

    瀏覽量

    133980
  • 服務(wù)器
    +關(guān)注

    關(guān)注

    12

    文章

    8958

    瀏覽量

    85082
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    29806

    瀏覽量

    268103
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3112

    瀏覽量

    48658

原文標題:推理效率比ControlNet高20+倍!谷歌發(fā)布MediaPipe Diffusion插件,「移動端」可用的圖像生成控制模型

文章出處:【微信號:CVSCHOOL,微信公眾號:OpenCV學堂】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    如何在PyTorch中使用擴散模型生成圖像

    除了頂尖的圖像質(zhì)量,擴散模型還帶來了許多其他好處,包括不需要對抗性訓練。對抗訓練的困難是有據(jù)可查的。在訓練效率的話題上,擴散模型還具有可伸縮
    發(fā)表于 11-22 15:51 ?452次閱讀
    如何在PyTorch中使用<b class='flag-5'>擴散</b><b class='flag-5'>模型</b><b class='flag-5'>生成</b><b class='flag-5'>圖像</b>

    基于圖像局部結(jié)構(gòu)的擴散平滑

    各向異性擴散平滑去噪的主要特點是擴散方向的選擇性與定向擴散能力,有效表征信號或圖像的局部結(jié)構(gòu)特征是各向異性擴散的基礎(chǔ),傳統(tǒng)的梯度表示方法極易
    發(fā)表于 04-23 09:56 ?21次下載

    基于生成器的圖像分類對抗樣本生成模型

    ,并保證攻擊成功率。模型將對抗樣本生成過程視為對原圖進行圖像増強的操作引入生成對抗網(wǎng)絡(luò),并改進感知損失函數(shù)以增加對抗樣本與原圖在內(nèi)容與特征
    發(fā)表于 04-07 14:56 ?2次下載
    基于<b class='flag-5'>生成</b>器的<b class='flag-5'>圖像</b>分類對抗樣本<b class='flag-5'>生成</b><b class='flag-5'>模型</b>

    基于生成式對抗網(wǎng)絡(luò)的圖像補全方法

    圖像補全是數(shù)字圖像處理領(lǐng)域的重要研究方向,具有廣闊的應(yīng)用前景。提出了一種基于生成式對抗網(wǎng)絡(luò)(GAN)的圖像補全方法。生成式對抗網(wǎng)絡(luò)
    發(fā)表于 05-19 14:38 ?14次下載

    基于像素級生成對抗網(wǎng)絡(luò)的圖像彩色化模型

    基于像素級生成對抗網(wǎng)絡(luò)的圖像彩色化模型
    發(fā)表于 06-27 11:02 ?4次下載

    擴散模型在視頻領(lǐng)域表現(xiàn)如何?

    在視頻生成領(lǐng)域,研究的一個重要里程碑是生成時間相干的高保真視頻。來自谷歌的研究者通過提出一個視頻生成擴散模型來實現(xiàn)這一里程碑,顯示出非常有希
    的頭像 發(fā)表于 04-13 10:04 ?1612次閱讀

    如何改進和加速擴散模型采樣的方法2

      事實上,擴散模型已經(jīng)在深層生成性學習方面取得了重大進展。我們預(yù)計,它們可能會在圖像和視頻處理、 3D 內(nèi)容生成和數(shù)字藝術(shù)以及語音和語言建
    的頭像 發(fā)表于 05-07 14:38 ?3120次閱讀
    如何改進和加速<b class='flag-5'>擴散</b><b class='flag-5'>模型</b>采樣的方法2

    新晉圖像生成王者擴散模型

    他們確定了最佳的時間離散化(time discretization),對采樣過程應(yīng)用了更高階的Runge–Kutta方法,并在三個預(yù)訓練模型上評估不同的方法,分析了隨機性在采樣過程中的有用性。
    的頭像 發(fā)表于 06-06 10:54 ?1201次閱讀

    擴散模型和其在文本生成圖像任務(wù)上的應(yīng)用

    擴散過程有一個顯著特性,我們可以對任意 進行采樣。為了證明該性質(zhì)需要使用參數(shù)重整化技巧:假設(shè)要從高斯分布 中采樣 時,可以先從 采樣出 ,然后計算 ,這樣可以解決梯度無法回傳問題。
    的頭像 發(fā)表于 08-03 15:34 ?2741次閱讀

    蒸餾無分類器指導(dǎo)擴散模型的方法

    去噪擴散概率模型(DDPM)在圖像生成、音頻合成、分子生成和似然估計領(lǐng)域都已經(jīng)實現(xiàn)了 SOTA 性能。同時無分類器(classifier-f
    的頭像 發(fā)表于 10-13 10:35 ?1160次閱讀

    基于文本到圖像模型的可控文本到視頻生成

    1. 論文信息 2. 引言 ? 大規(guī)模擴散模型在文本到圖像合成方面取得了巨大的突破,并在創(chuàng)意應(yīng)用方面取得了成功。一些工作試圖在視頻領(lǐng)域復(fù)制這個成功,即在野外世界建模高維復(fù)雜視頻分布。然而,訓練這樣
    的頭像 發(fā)表于 06-14 10:39 ?898次閱讀
    基于文本到<b class='flag-5'>圖像</b><b class='flag-5'>模型</b>的可控文本到視頻<b class='flag-5'>生成</b>

    如何加速生成2 PyTorch擴散模型

    加速生成2 PyTorch擴散模型
    的頭像 發(fā)表于 09-04 16:09 ?1035次閱讀
    如何加速<b class='flag-5'>生成</b>2 PyTorch<b class='flag-5'>擴散</b><b class='flag-5'>模型</b>

    DDFM:首個使用擴散模型進行多模態(tài)圖像融合的方法

    近來去噪擴散概率模型 Denoising diffusion probabilistic model (DDPM)在圖像生成中獲得很多進步,通過對一張noise-corrupted
    的頭像 發(fā)表于 09-19 16:02 ?4058次閱讀
    DDFM:首個使用<b class='flag-5'>擴散</b><b class='flag-5'>模型</b>進行多模態(tài)<b class='flag-5'>圖像</b>融合的方法

    基于DiAD擴散模型的多類異常檢測工作

    現(xiàn)有的基于計算機視覺的工業(yè)異常檢測技術(shù)包括基于特征的、基于重構(gòu)的和基于合成的技術(shù)。最近,擴散模型因其強大的生成能力而聞名,因此本文作者希望通過擴散
    的頭像 發(fā)表于 01-08 14:55 ?1185次閱讀
    基于DiAD<b class='flag-5'>擴散</b><b class='flag-5'>模型</b>的多類異常檢測工作

    KOALA人工智能圖像生成模型問世

    近日,韓國科學團隊宣布研發(fā)出名為 KOALA 的新型人工智能圖像生成模型,該模型在速度和質(zhì)量上均實現(xiàn)了顯著突破。KOALA 能夠在短短 2 秒內(nèi)生成
    的頭像 發(fā)表于 03-05 10:46 ?711次閱讀