0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

何愷明新作RCG:無自條件圖像生成新SOTA!與MIT首次合作!

CVer ? 來源:量子位 ? 2023-12-10 10:24 ? 次閱讀

大佬何愷明還未正式入職MIT,但和MIT的第一篇合作研究已經(jīng)出來了:

他和MIT師生一起開發(fā)了一個自條件圖像生成框架,名叫RCG(代碼已開源)。

這個框架結(jié)構(gòu)非常簡單但效果拔群,直接在ImageNet-1K數(shù)據(jù)集上實現(xiàn)了無條件圖像生成的新SOTA。

968392de-96ac-11ee-8b88-92fbcf53809c.png

它生成的圖像不需要任何人類注釋(也就是提示詞、類標簽什么的),就能做到既保真又具有多樣性。

968f3756-96ac-11ee-8b88-92fbcf53809c.png

這樣的它不僅顯著提高了無條件圖像生成的水平,還能跟當前最好的條件生成方法一較高下。

用何愷明團隊自己的話來說:

有條件和無條件生成任務之間長期存在的性能差距,終于在這一刻被彌補了。

那么,它究竟是如何做到的呢?

類似自監(jiān)督學習的自條件生成

首先,所謂無條件生成,就是模型在沒有輸入信號幫助的情況下直接捕獲數(shù)據(jù)分布生成內(nèi)容。

這種方式比較難以訓練,所以一直和條件生成有很大性能差距——就像無監(jiān)督學習比不過監(jiān)督學習一樣。

但就像自監(jiān)督學習的出現(xiàn),扭轉(zhuǎn)了這一局面一樣。

在無條件圖像生成領(lǐng)域,也有一個類似于自監(jiān)督學習概念的自條件生成方法。

相比傳統(tǒng)的無條件生成簡單地將噪聲分布映射到圖像分布,這種方法主要將像素生成過程設置在從數(shù)據(jù)分布本身導出的表示分布上。

它有望超越條件圖像生成,并推動諸如分子設計或藥物發(fā)現(xiàn)這種不需要人類給注釋的應用往前發(fā)展(這也是為什么條件生成圖像發(fā)展得這么好,我們還要重視無條件生成)。

現(xiàn)在,基于這個自條件生成概念,何愷明團隊首先開發(fā)了一個表示擴散模型RDM。

它主要用于生成低維自監(jiān)督圖像表示,方法是通過自監(jiān)督圖像編碼器從圖像中截取:

969c8794-96ac-11ee-8b88-92fbcf53809c.png

它的核心架構(gòu)如下:

首先是輸入層,它負責將表征投射到隱藏維度C,接著是N個全連接塊,最后是一個輸出層,負責把隱藏層的潛在特征重新投射(轉(zhuǎn)換)到原始表征維度。

其中每一層都包含一個LayerNorm層、一個SiLU層以及一個線性層。

96aaccaa-96ac-11ee-8b88-92fbcf53809c.png

這樣的RDM具有兩個優(yōu)點:

一是多樣性強,二是計算開銷小。

接著,利用RDM,團隊就提出了今天的主角:表示條件圖像生成架構(gòu)RCG。

它是一個簡單的自條件生成框架,由三個組件組成:

一個是SSL圖像編碼器,用于將圖像分布轉(zhuǎn)換為緊湊的表示分布。

一個是RDM,用于對該分布進行建模和采樣。

最后是一個像素生成器MAGE,用于根據(jù)表示來處理圖像像。

MAGE的工作方式主要是向token化的圖像中添加隨機掩碼,并要求網(wǎng)絡以從同一圖像中提取的表示為條件來重建丟失的token。

96b8b810-96ac-11ee-8b88-92fbcf53809c.png

最終,測試表明,這個自條件生成框架雖結(jié)構(gòu)簡單但效果非凡:

在ImageNet 256×256上,RCG實現(xiàn)了3.56的FID和186.9的IS(Inception Score)得分。

相比之下,在它之前最厲害的無條件生成方法FID分數(shù)為7.04,IS得分為123.5。

96c3fdd8-96ac-11ee-8b88-92fbcf53809c.png

以及,相比條件生成,RCG也絲毫不遜色,可以達到相當甚至超過該領(lǐng)域基準模型的水平。

最后,在無分類器引導的情況下,RCG的成績還能進一步提高到3.31(FID)和253.4(IS)。

團隊表示:

這些結(jié)果表明,自條件圖像生成模型擁有巨大潛力,可能預示這一領(lǐng)域新時代的到來。

團隊介紹

本文一共三位作者:

96c8531a-96ac-11ee-8b88-92fbcf53809c.png

代碼:https://github.com/LTH14/rcg

論文:https://arxiv.org/abs/2312.03701

一作是MIT博士生黎天鴻,本科畢業(yè)于清華姚班,研究方向為跨模態(tài)集成傳感技術(shù)。

他的主頁很有意思,還專門放了一個菜譜合集——做研究和做飯是他最熱愛的兩件事。

96d25b26-96ac-11ee-8b88-92fbcf53809c.png

另一位作者是MIT電氣工程與計算機科學系(EECS)教授、MIT無線網(wǎng)絡和移動計算中心主任Dina Katabi,她是今年斯隆獎的獲得者,并已當選美國國家科學院院士。

最后,通訊作者為何愷明,他將在明年正式回歸學界、離開Meta加入MIT電氣工程和計算機科學系,與Dina Katabi成為同事。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 圖像
    +關(guān)注

    關(guān)注

    2

    文章

    1075

    瀏覽量

    40270
  • MIT
    MIT
    +關(guān)注

    關(guān)注

    3

    文章

    253

    瀏覽量

    23312
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1197

    瀏覽量

    24538

原文標題:何愷明新作RCG:無自條件圖像生成新SOTA!與MIT首次合作!

文章出處:【微信號:CVer,微信公眾號:CVer】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    Freepik攜手Magnific AI推出AI圖像生成

    近日,設計資源巨頭Freepik攜手Magnific AI,共同推出了革命性的AI圖像生成器——Freepik Mystic,這一里程碑式的發(fā)布標志著AI圖像創(chuàng)作領(lǐng)域邁入了一個全新的高度
    的頭像 發(fā)表于 08-30 16:23 ?949次閱讀

    NB81是否支持OneNet SOTA功能?應該如何激活SOTA?

    NB81是否支持OneNet SOTA功能? 可以支持,應該如何激活SOTA?
    發(fā)表于 06-04 06:14

    fx3 UVC 32bit圖像黑屏的原因?

    硬件采用FX3套件,FPGA生成圖像傳給FX3顯示在上位機,使用an75779工程,分辨率1920*1080,幀率30,8位數(shù)據(jù)線時,用amcap圖像正常,改為32位數(shù)據(jù)線時,黑屏
    發(fā)表于 05-24 06:59

    旋變位置不變的情況下,當使能SOTA功能與關(guān)閉SOTA功能時,APP中DSADC采樣得到的旋變sin和cos兩者值不一樣,為什么?

    旋變位置不變的情況下,當使能SOTA功能與關(guān)閉SOTA功能時,APP中DSADC采樣得到的旋變sin和cos兩者值不一樣,用示波器采的輸入到MCU端的差分電壓是一樣的,難道是SOTA使能后影響了MCU芯片內(nèi)部的等效阻抗嗎,有專家
    發(fā)表于 05-17 08:13

    OpenAI發(fā)布圖像檢測分類器,可區(qū)分AI生成圖像與實拍照片

    據(jù)OpenAI介紹,初步測試結(jié)果表明,該分類器在辨別非AI生成圖像與DALL·E 3生成圖像時,成功率高達近98%,僅有不到0.5%的非AI圖像
    的頭像 發(fā)表于 05-09 09:57 ?334次閱讀

    施耐德電氣與水木拓簽署合作協(xié)議

    近日,施耐德電氣與水木拓(達茂)氫能源科技有限公司(以下簡稱“水木拓”)簽訂合作協(xié)議。
    的頭像 發(fā)表于 03-08 09:50 ?368次閱讀

    KOALA人工智能圖像生成模型問世

    近日,韓國科學團隊宣布研發(fā)出名為 KOALA 的新型人工智能圖像生成模型,該模型在速度和質(zhì)量上均實現(xiàn)了顯著突破。KOALA 能夠在短短 2 秒內(nèi)生成高質(zhì)量圖片,同時大幅降低了對硬件的需求,為
    的頭像 發(fā)表于 03-05 10:46 ?604次閱讀

    Stability AI試圖通過新的圖像生成人工智能模型保持領(lǐng)先地位

    Stability AI的最新圖像生成模型Stable Cascade承諾比其業(yè)界領(lǐng)先的前身Stable Diffusion更快、更強大,而Stable Diffusion是許多其他文本到圖像
    的頭像 發(fā)表于 02-19 16:03 ?781次閱讀
    Stability AI試圖通過新的<b class='flag-5'>圖像</b><b class='flag-5'>生成</b>人工智能模型保持領(lǐng)先地位

    三項SOTA!MasQCLIP:開放詞匯通用圖像分割新網(wǎng)絡

    MasQCLIP在開放詞匯實例分割、語義分割和全景分割三項任務上均實現(xiàn)了SOTA,漲點非常明顯。這里也推薦工坊推出的新課程《徹底搞懂視覺-慣性SLAM:VINS-Fusion原理精講與源碼剖析》。
    的頭像 發(fā)表于 12-12 11:23 ?610次閱讀
    三項<b class='flag-5'>SOTA</b>!MasQCLIP:開放詞匯通用<b class='flag-5'>圖像</b>分割新網(wǎng)絡

    怎樣快速生成源電感Pcell”?

    怎樣快速生成源電感Pcell”?
    的頭像 發(fā)表于 12-06 16:13 ?693次閱讀
    怎樣快速<b class='flag-5'>生成</b>“<b class='flag-5'>無</b>源電感Pcell”?

    芯馳科技與然科技簽署戰(zhàn)略合作協(xié)議

    11月29日,芯馳科技與然科技簽署戰(zhàn)略合作協(xié)議,基于芯馳高性能、高可靠車規(guī)芯片產(chǎn)品,雙方將持續(xù)推進汽車底盤域、車身域、動力域產(chǎn)品的研發(fā)創(chuàng)新與量產(chǎn)應用。
    的頭像 發(fā)表于 11-30 10:27 ?619次閱讀

    香港大學最新提出!實現(xiàn)超現(xiàn)實的人類圖像生成:HyperHuman

    最后,為了進一步提高視覺質(zhì)量,我們提出了一種結(jié)構(gòu)引導細化器來組合預測條件,以更詳細地生成更高分辨率。大量的實驗表明,我們的框架具有最先進的性能,可以在不同的場景下生成超逼真的人類圖像
    的頭像 發(fā)表于 11-27 16:03 ?617次閱讀
    香港大學最新提出!實現(xiàn)超現(xiàn)實的人類<b class='flag-5'>圖像</b><b class='flag-5'>生成</b>:HyperHuman

    基于大語言模型的共情回復生成:實證研究和改進

    對以ChatGPT為代表的LLMs在共情回復生成上的表現(xiàn)進行了全面的實證研究,LLMs在現(xiàn)有的基準數(shù)據(jù)集上,對比以往的SOTA模型,表現(xiàn)極其優(yōu)越。
    的頭像 發(fā)表于 11-21 09:25 ?909次閱讀
    基于大語言模型的共情回復<b class='flag-5'>生成</b>:實證研究和改進

    如何對照Yocto生成圖像檢查設備上的圖像版本 ?

    如何對照 Yocto 生成圖像檢查設備上的圖像版本 ?
    發(fā)表于 11-13 07:41

    CMU、MIT、清華聯(lián)合發(fā)布全球首個生成式機器人智能體RoboGen

    CMU、MIT、清華聯(lián)合發(fā)布了全球首個生成式機器人智能體RoboGen,可以無限生成數(shù)據(jù),讓機器人7*24小時永不停歇地訓練。為機器人進入通用場景邁出堅實一步。
    的頭像 發(fā)表于 11-09 10:19 ?941次閱讀