0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

讓AI學(xué)會(huì)畫手的方法來了,給輸入加個(gè)buff就能控制生成細(xì)節(jié)

OpenCV學(xué)堂 ? 來源:量子位 ? 2023-02-21 11:00 ? 次閱讀

給畫畫AI加個(gè)buff,畫起圖像就像開了掛。

加個(gè)人體骨骼綁定buff,Stable Diffusion直接快進(jìn)到生成3D動(dòng)漫:

82535af4-b13a-11ed-bfe3-dac502259ad0.gif

加個(gè)抽象到爆的草圖buff,AI變著風(fēng)格生成“完全一致”的狗子:

8283c95a-b13a-11ed-bfe3-dac502259ad0.png

就連號稱“AI殺手”的手部細(xì)節(jié),也能在控制之下畫得惟妙惟肖:

84172f50-b13a-11ed-bfe3-dac502259ad0.png

這個(gè)名叫ControlNet的新AI插件,可以說是給畫畫AI來了最后的“臨門一腳”——

原本AI無法控制的手部細(xì)節(jié)、整體架構(gòu),有了它之后,加上Stable Diffusion這樣的擴(kuò)散模型,足以生成任何人們想要的圖像。

發(fā)出不到兩天,ControlNet就在GitHub上火了,目前已經(jīng)狂攬4.6k星:

844befe2-b13a-11ed-bfe3-dac502259ad0.png

△“讓我們控制擴(kuò)散模型”

各種效果圖更是在推特上爆火,試玩過的網(wǎng)友直呼:

游戲結(jié)束!

8465c746-b13a-11ed-bfe3-dac502259ad0.png

所以,這個(gè)ControlNet究竟給擴(kuò)散模型加了什么buff?

給AI畫畫模型加buff

ControlNet的原理,本質(zhì)上是給預(yù)訓(xùn)練擴(kuò)散模型增加一個(gè)額外的輸入,控制它生成的細(xì)節(jié)。

這里可以是各種類型的輸入,作者給出來的有8種,包括草圖、邊緣圖像、語義分割圖像、人體關(guān)鍵點(diǎn)特征、霍夫變換檢測直線、深度圖、人體骨骼等。

那么,讓大模型學(xué)會(huì)“按輸入條件生成圖片”的原理是什么呢?

ControlNet整體思路和架構(gòu)分工如下:

849670da-b13a-11ed-bfe3-dac502259ad0.png

具體來說,ControlNet先復(fù)制一遍擴(kuò)散模型的權(quán)重,得到一個(gè)“可訓(xùn)練副本”(trainable copy)。

相比之下,原擴(kuò)散模型經(jīng)過幾十億張圖片的預(yù)訓(xùn)練,因此參數(shù)是被“鎖定”的。而這個(gè)“可訓(xùn)練副本”只需要在特定任務(wù)的小數(shù)據(jù)集上訓(xùn)練,就能學(xué)會(huì)條件控制。

據(jù)作者表示,即使數(shù)據(jù)量很少(不超過5萬張圖片),模型經(jīng)過訓(xùn)練后條件控制生成的效果也很好。

“鎖定模型”和“可訓(xùn)練副本”通過一個(gè)1×1的卷積層連接,名叫“0卷積層”。

0卷積層的權(quán)重和偏置初始化為0,這樣在訓(xùn)練時(shí)速度會(huì)非??欤咏⒄{(diào)擴(kuò)散模型的速度,甚至在個(gè)人設(shè)備上訓(xùn)練也可以。

例如一塊英偉達(dá)RTX 3090TI,用20萬張圖像數(shù)據(jù)訓(xùn)練的話只需要不到一個(gè)星期:

84dc0e88-b13a-11ed-bfe3-dac502259ad0.png

作者基于當(dāng)前大火的Stable Diffusion進(jìn)行了具體實(shí)現(xiàn),主要架構(gòu)如下:

85209db4-b13a-11ed-bfe3-dac502259ad0.png

針對不同的輸入,作者也給出了對應(yīng)不同的模型,生成效果也都不錯(cuò)。

例如這是采用Canny邊緣檢測算法檢測出的邊緣,用于生成圖像:

85747290-b13a-11ed-bfe3-dac502259ad0.png

這是基于霍夫變換的直線檢測算法生成的直線草圖,用于生成各種風(fēng)格的室內(nèi)設(shè)計(jì):

8594a8a8-b13a-11ed-bfe3-dac502259ad0.png

當(dāng)然,自己作畫也可以,例如這是基于用戶草圖生成的小龜:

85b49ece-b13a-11ed-bfe3-dac502259ad0.png

提取深度圖,并讓AI生成一幅相似的圖像,直接舉一反五:

85de83a6-b13a-11ed-bfe3-dac502259ad0.png

語義分割下的游泳池圖像,不僅水里有倒影細(xì)節(jié),建筑也變化多樣:

8617b98c-b13a-11ed-bfe3-dac502259ad0.png

不過目前來看,最受歡迎的還是基于人體姿態(tài)估計(jì)算法,控制動(dòng)漫人物的動(dòng)作生成:

8633039a-b13a-11ed-bfe3-dac502259ad0.png

看到這里,是不是已經(jīng)有了大膽的想法?(手動(dòng)狗頭)

曾開發(fā)爆火AI上色插件

這個(gè)項(xiàng)目的作者Lvmin Zhang,2021年本科畢業(yè)于東吳大學(xué),目前在斯坦福大學(xué)讀博。

他最出名的項(xiàng)目之一,是2017年開發(fā)的AI上色插件style2paints,目前GitHub上已經(jīng)有15.9k星。

8693c266-b13a-11ed-bfe3-dac502259ad0.png

style2paints也經(jīng)過了好幾次迭代,目前即將更新到第五版。

這是第四版的效果,只需要線稿,AI就能自動(dòng)給你的圖像完成上色:

86b1f2a4-b13a-11ed-bfe3-dac502259ad0.png

除了這個(gè)項(xiàng)目以外,他也是CV頂會(huì)的??土?。

86de6cf8-b13a-11ed-bfe3-dac502259ad0.png

One More Thing

值得一提的是,現(xiàn)在已經(jīng)有基于ControlNet的國內(nèi)產(chǎn)品上線了。

這個(gè)產(chǎn)品名叫稿定AI,包含照片轉(zhuǎn)插畫、插畫線稿上色、插畫優(yōu)化翻新等功能,正是基于ControlNet打造。

作畫效果大概是醬嬸的:

870cdc00-b13a-11ed-bfe3-dac502259ad0.png

感興趣的小伙伴們可以去試玩一波了~

項(xiàng)目地址: https://github.com/lllyasviel/ControlNet

參考鏈接: [1]https://lllyasviel.github.io/Style2PaintsResearch/ [2]https://twitter.com/search?q=controlnet&src=typed_query [3]https://www.gaoding.com/ai

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    29862

    瀏覽量

    268155
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1201

    瀏覽量

    24622

原文標(biāo)題:讓AI學(xué)會(huì)畫手的方法來了,給輸入加個(gè)buff就能控制生成細(xì)節(jié),華人小哥出品丨GitHub 4.6k星

文章出處:【微信號:CVSCHOOL,微信公眾號:OpenCV學(xué)堂】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    生成AI如何在智能家居中落地?

    ,創(chuàng)造新內(nèi)容的能力為新的應(yīng)用開辟了許多可能性,尤其在智能家居中,生成AI更是大有可為。 ? 通過生成AI,智能家居可以學(xué)習(xí)家庭成員的行為模式,了解他們的喜好和需求,并根據(jù)這些信息來
    的頭像 發(fā)表于 07-27 00:19 ?1615次閱讀

    如何快速學(xué)會(huì)AD?

    最近看完了AD視頻教程,怎么感覺一點(diǎn)都沒用呢?求教大家,如何才能快速入手AD,學(xué)會(huì)畫板子?(是不是方法有問題,感覺學(xué)的很迷茫?。。?/div>
    發(fā)表于 08-15 09:36

    舒心貼進(jìn)駐《機(jī)會(huì)來了》科技庫,4大黑科技你安全高效告別疼痛

    設(shè)計(jì)、方便更換,醫(yī)用泡棉電極片、延長使用壽命,舒心貼在制作上完善各個(gè)細(xì)節(jié),集萬千寵愛于一身,只為使用者更好的體驗(yàn)。這4大黑科技,有沒有你覺得很神奇呢?舒心貼針對疼痛管理帶來的改變
    發(fā)表于 02-01 11:17

    如何通過使用gm/Id的方法來簡化設(shè)計(jì)運(yùn)放?

     一直想通過使用gm/Id的方法來簡化設(shè)計(jì)運(yùn)放;  但在實(shí)際設(shè)計(jì)過程中遇到較多的問題;  然后參考了一些國外的文獻(xiàn),發(fā)現(xiàn)他們好多用此方法設(shè)計(jì)OTA;如果是常規(guī)的一些opa,可能Av的估算并不是那么
    發(fā)表于 06-24 07:37

    可以通過哪些方法來改善MCU掃描附近AP時(shí)出現(xiàn)的故障

    有客戶反應(yīng),XR系列MCU在連接進(jìn)行掃描附近AP時(shí),掃描不出所需要的AP,但第二次或者第三次就能掃描出來了。當(dāng)mcu執(zhí)行掃描動(dòng)作時(shí),掃描不出所需要的ap時(shí),可以通過哪些方法來改善這種情況。
    發(fā)表于 12-29 06:00

    qmail郵件服務(wù)器加個(gè)病毒防火墻

    qmail郵件服務(wù)器加個(gè)病毒防火墻 近期郵件病毒泛濫,正好從網(wǎng)上看到幾篇關(guān)于qmail防毒的文章,于是邊做邊比較了一下網(wǎng)上的幾種方
    發(fā)表于 02-01 13:42 ?727次閱讀

    如何通過簡單的方法來增加手機(jī)的續(xù)航時(shí)間

    通過這篇文章告訴大家如何通過簡單的方法來了解手機(jī)的續(xù)航時(shí)間。
    發(fā)表于 01-19 09:20 ?6102次閱讀

    AI安防行業(yè)帶來了翻天覆地的變化 視頻監(jiān)控是安防最重要的部分

    AI的興起這兩年的安防行業(yè)變得熱鬧起來,新概念和新產(chǎn)品層出不窮,無論是傳統(tǒng)企業(yè)還是新興企業(yè),無一不在AI技術(shù)上大秀“肌肉”。AI似乎安防
    發(fā)表于 01-14 15:52 ?763次閱讀

    AI助手輸入更智能

    輸入更智能:搜狗輸入法發(fā)布業(yè)內(nèi)首個(gè)AI助手
    的頭像 發(fā)表于 08-20 11:20 ?3562次閱讀

    西安交大畢業(yè)生機(jī)械學(xué)會(huì)寫字

    機(jī)械也會(huì)寫字了! 最近,西安交大畢業(yè)生杭凱宇研發(fā)出一款算法,只需提前設(shè)計(jì)好路線,機(jī)械就能寫出英文單詞“SCIENCE”,平均控制精度高達(dá) 0.42 ± 0.34 mm。 通過該算法
    的頭像 發(fā)表于 06-15 15:31 ?1961次閱讀

    AI算法5秒鐘就能克隆你的聲音

    今天,大家介紹一個(gè)算法。 AI 算法 5 秒鐘,就能克隆你的聲音,你信嗎? 聽聽這段音頻,猜猜看是 AI 合成音,還是真人錄音? 答案是:AI
    的頭像 發(fā)表于 11-17 10:05 ?6900次閱讀

    企業(yè)很著急尋找的沖床曲軸磨損修復(fù)方法來了!

    企業(yè)很著急尋找的沖床曲軸磨損修復(fù)方法來了!
    發(fā)表于 05-05 16:26 ?0次下載

    生成AI,切蛋糕的刀還是做蛋糕的?

    伴隨著AIGC的突然爆火,生成AI是搶走蛋糕,還是做大蛋糕
    的頭像 發(fā)表于 11-23 10:22 ?682次閱讀
    <b class='flag-5'>生成</b>式<b class='flag-5'>AI</b>,切蛋糕的刀還是做蛋糕的<b class='flag-5'>手</b>?

    在線研討會(huì) | 9 月 19 日,利用 GPU 加速生成AI 圖像內(nèi)容生成

    生成AI 已經(jīng)展示出其在藝術(shù)、設(shè)計(jì)、影視動(dòng)畫、互娛、建筑等領(lǐng)域加速內(nèi)容創(chuàng)作的價(jià)值,可以簡化耗時(shí)任務(wù),內(nèi)容創(chuàng)作回歸創(chuàng)意,并具有重塑無數(shù)行業(yè)的潛力。生成
    的頭像 發(fā)表于 09-14 17:40 ?464次閱讀
    在線研討會(huì) | 9 月 19 日,利用 GPU 加速<b class='flag-5'>生成</b>式 <b class='flag-5'>AI</b> 圖像內(nèi)容<b class='flag-5'>生成</b>

    生成AI觸手可及 ——AirBox 正式開放預(yù)定

    生成AI觸手可及 ——AirBox 正式開放預(yù)定
    的頭像 發(fā)表于 04-26 08:34 ?800次閱讀
    <b class='flag-5'>讓</b><b class='flag-5'>生成</b>式<b class='flag-5'>AI</b>觸手可及 ——AirBox 正式開放預(yù)定