0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

字節(jié)跳動發(fā)布文生圖開放模型,迅速沖上Hugging Face Spaces熱榜

jf_WZTOguxH ? 來源:AI前線 ? 2024-02-26 13:47 ? 次閱讀

很高興跟大家分享我們最新的文生圖模型 —— SDXL-Lightning,它實現(xiàn)了前所未有的速度和質(zhì)量,并且已經(jīng)向社區(qū)開放。

閃電般的圖片生成

生成式 AI 正憑借其根據(jù)文本提示(text prompts)創(chuàng)造出驚艷圖像乃至視頻的能力,贏得全球的矚目。當(dāng)前最先進的生成模型依賴于擴散過程(diffusion),這是一個將噪聲逐步轉(zhuǎn)化為圖像樣本的迭代過程。這個過程需要耗費巨大的計算資源并且速度較慢,在生成高質(zhì)量圖像樣本的過程中,單張圖像的處理時間約為 5 秒,其中通常需要多次(20 到 40 次)調(diào)用龐大的神經(jīng)網(wǎng)絡(luò)。這樣的速度限制了有快速、實時生成需求的應(yīng)用場景。如何在提升生成質(zhì)量的同時加快速度,是當(dāng)前研究的熱點領(lǐng)域,也是我們工作的核心目標。

SDXL-Lightning 通過一種創(chuàng)新技術(shù)——漸進式對抗蒸餾(Progressive Adversarial Distillation)——突破了這一障礙,實現(xiàn)了前所未有的生成速度。該模型能夠在短短 2 步或 4 步內(nèi)生成極高質(zhì)量和分辨率的圖像,將計算成本和時間降低十倍。我們的方法甚至可以在 1 步內(nèi)為超時敏感的應(yīng)用生成圖像,雖然可能會稍微犧牲一些質(zhì)量。

除了速度優(yōu)勢,SDXL-Lightning 在圖像質(zhì)量上也有顯著表現(xiàn),并在評估中超越了以往的加速技術(shù)。在實現(xiàn)更高分辨率和更佳細節(jié)的同時保持良好的多樣性和圖文匹配度。

33c5b058-d461-11ee-a297-92fbcf53809c.gif

速度對比示意

原始模型(20 步),SDXL-Lightning 模型(2 步)

模型效果

SDXL-Lightning 模型可以通過 1 步、2 步、4 步和 8 步來生成圖像。推理步驟越多,圖像質(zhì)量越好。

以下是 4 步生成結(jié)果——

以下是 2 步生成結(jié)果—— 與以前的方法(Turbo 和 LCM)相比,我們的方法生成的圖像在細節(jié)上有顯著改進,并且更忠實于原始生成模型的風(fēng)格和布局。

3400e01a-d461-11ee-a297-92fbcf53809c.png

回饋社區(qū),開放模型

開源開放的浪潮已經(jīng)成為推動人工智能迅猛發(fā)展的關(guān)鍵力量,字節(jié)跳動也自豪地成為這股浪潮的一部分。我們的模型基于目前最流行的文字生成圖像開放模型 SDXL,該模型已經(jīng)擁有一個繁榮的生態(tài)系統(tǒng)?,F(xiàn)在,我們決定將 SDXL-Lightning 開放給全球的開發(fā)者、研究人員和創(chuàng)意從業(yè)者,以便他們能訪問并運用這一模型,進一步推動整個行業(yè)的創(chuàng)新和協(xié)作。

在設(shè)計 SDXL-Lightning 時,我們就考慮到與開放模型社區(qū)的兼容。社區(qū)中已有眾多藝術(shù)家和開發(fā)者創(chuàng)建了各種各樣的風(fēng)格化圖像生成模型,例如卡通和動漫風(fēng)格等。為了支持這些模型,我們提供 SDXL-Lightning 作為一個增速插件,它可以無縫地整合到這些多樣風(fēng)格的 SDXL 模型中,為各種不同模型加快圖像生成的速度。 342047d4-d461-11ee-a297-92fbcf53809c.png

SDXL-Lightning 模型也可以和目前非常流行的控制插件 ControlNet 相結(jié)合,實現(xiàn)極速可控的圖片生成。

345c001c-d461-11ee-a297-92fbcf53809c.png

SDXL-Lightning 模型也支持開源社區(qū)里目前最流行的生成軟件 ComfyUI,模型可以被直接加載來使用:

347621e0-d461-11ee-a297-92fbcf53809c.png

關(guān)于技術(shù)細節(jié)

從理論上來說,圖像生成是一個由噪聲到清晰圖像的逐步轉(zhuǎn)化過程。在這一過程中,神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)在這個轉(zhuǎn)化流(flow)中各個位置上的梯度。

生成圖像的具體步驟是這樣的:

首先我們在流的起點,隨機采樣一個噪聲樣本,接著用神經(jīng)網(wǎng)絡(luò)計算出梯度。根據(jù)當(dāng)前位置上的梯度,我們對樣本進行微小的調(diào)整,然后不斷重復(fù)這一過程。每一次迭代,樣本都會更接近最終的圖像分布,直至獲得一張清晰的圖像。 34921a9e-d461-11ee-a297-92fbcf53809c.png

圖:生成流程(來自:https://arxiv.org/abs/2011.13456)

由于生成流復(fù)雜且非直線,生成過程必須一次只走一小步以減少梯度誤差累積,所以需要神經(jīng)網(wǎng)絡(luò)的頻繁計算,這就是計算量大的原因。

34a43d00-d461-11ee-a297-92fbcf53809c.png

圖:曲線流程(圖片來自:https://arxiv.org/abs/2210.05475)

為了減少生成圖像所需的步驟數(shù)量,許多研究致力于尋找解決方案。一些研究提出了能減少誤差的采樣方法,而其他研究則試圖使生成流更加直線化。盡管這些方法有所進展,但它們?nèi)匀恍枰^ 10 個推理步驟來生成圖像。

另一種方法是模型蒸餾,它能夠在少于 10 個推理步驟的情況下生成高質(zhì)量圖像。不同于計算當(dāng)前流位置下的梯度,模型蒸餾改變模型預(yù)測的目標,直接讓其預(yù)測下一個更遠的流位置。具體來說,我們訓(xùn)練一個學(xué)生網(wǎng)絡(luò)直接預(yù)測老師網(wǎng)絡(luò)完成了多步推理后的結(jié)果。這樣的策略可以大幅減少所需的推理步驟數(shù)量。通過反復(fù)應(yīng)用這個過程,我們可以進一步降低推理步驟的數(shù)量。這種方法被先前的研究稱之為漸進式蒸餾。

34bd92c8-d461-11ee-a297-92fbcf53809c.png

圖:漸進式蒸餾,學(xué)生網(wǎng)絡(luò)預(yù)測老師網(wǎng)絡(luò)多步后的結(jié)果

在實際操作中,學(xué)生網(wǎng)絡(luò)往往難以精確預(yù)測未來的流位置。誤差隨著每一步的累積而放大,導(dǎo)致在少于 8 步推理的情況下,模型產(chǎn)生的圖像開始變得模糊不清。

為了解決這個問題,我們的策略是不強求學(xué)生網(wǎng)絡(luò)精確匹配教師網(wǎng)絡(luò)的預(yù)測,而是讓學(xué)生網(wǎng)絡(luò)在概率分布上與教師網(wǎng)絡(luò)保持一致。換言之,學(xué)生網(wǎng)絡(luò)被訓(xùn)練來預(yù)測一個概率上可能的位置,即使這個位置并不完全準確,我們也不會對它進行懲罰。這個目標是通過對抗訓(xùn)練來實現(xiàn)的,引入了一個額外的判別網(wǎng)絡(luò)來幫助實現(xiàn)學(xué)生網(wǎng)絡(luò)和教師網(wǎng)絡(luò)輸出的分布匹配。

這是我們研究方法的簡要概述。在技術(shù)論文(https://arxiv.org/abs/2402.13929)中,我們提供了更深入的理論分析、訓(xùn)練策略以及模型的具體公式化細節(jié)。

SDXL-Lightning 之外

盡管本研究主要探討了如何利用 SDXL-Lightning 技術(shù)進行圖像生成,但我們所提出的漸進式對抗蒸餾方法的應(yīng)用潛力不局限于靜態(tài)圖像的范疇。這一創(chuàng)新技術(shù)也可以被運用于快速且高質(zhì)量生成視頻、音頻以及其他多模態(tài)內(nèi)容。我們誠摯邀請您在 HuggingFace 平臺上體驗 SDXL-Lightning,并期待您寶貴的意見和反饋。




審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4718

    瀏覽量

    100040
  • LCM
    LCM
    +關(guān)注

    關(guān)注

    6

    文章

    57

    瀏覽量

    34465
  • 字節(jié)跳動
    +關(guān)注

    關(guān)注

    0

    文章

    297

    瀏覽量

    8833
  • 生成式AI
    +關(guān)注

    關(guān)注

    0

    文章

    463

    瀏覽量

    416

原文標題:就是“快”!字節(jié)跳動發(fā)布文生圖開放模型,迅速沖上Hugging Face Spaces 熱榜

文章出處:【微信號:AI前線,微信公眾號:AI前線】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    華發(fā)數(shù)智攜手字節(jié)跳動共同發(fā)布AI數(shù)字人及大模型綜合解決方案

    近日,珠海華發(fā)數(shù)智技術(shù)有限公司(簡稱:華發(fā)數(shù)智)攜手字節(jié)跳動旗下領(lǐng)先的云服務(wù)平臺火山引擎,共同發(fā)布了AI數(shù)字人及大模型綜合解決方案,標志著華發(fā)集團在AI大
    的頭像 發(fā)表于 08-07 16:53 ?492次閱讀

    Hugging Face科技公司推出SmolLM系列語言模型

    7月22日最新資訊,Hugging Face科技公司在語言模型領(lǐng)域再創(chuàng)新高,正式推出了SmolLM系列——一款專為適應(yīng)多樣計算資源而設(shè)計的緊湊型語言模型家族。該系列包含三個版本,分別搭
    的頭像 發(fā)表于 07-23 16:35 ?202次閱讀

    字節(jié)跳動發(fā)布豆包MarsCo智能開發(fā)工具

    在數(shù)字時代的浪潮中,編程已成為推動科技進步和創(chuàng)新的核心動力。為了助力國內(nèi)開發(fā)者更高效、智能地進行編程工作,字節(jié)跳動公司近日發(fā)布了全新的智能開發(fā)工具——豆包 MarsCode。這款工具基于強大的豆包大
    的頭像 發(fā)表于 07-01 15:03 ?510次閱讀

    字節(jié)跳動否認AI手機研發(fā)項目

    近日,有市場傳聞稱字節(jié)跳動已在兩個月前秘密啟動了AI手機研發(fā)項目,引發(fā)業(yè)界廣泛關(guān)注。然而,字節(jié)跳動相關(guān)人士迅速對此作出回應(yīng),表示這些消息并不
    的頭像 發(fā)表于 06-12 15:54 ?413次閱讀

    快手自研文生模型“可開放,支持AI圖像創(chuàng)作及定制

    5月30日最新動態(tài),快手于近日向公眾推出其自主研發(fā)的文生模型命名為“可”。該模型具備文生
    的頭像 發(fā)表于 05-31 10:32 ?498次閱讀

    谷歌發(fā)布AI文生模型Imagen

    近日,谷歌在人工智能領(lǐng)域取得新突破,正式推出了Imagen文生模型。這款模型以其卓越的細節(jié)調(diào)整功能、逼真的光線效果以及從草圖快速生成高分辨率圖像的能力,引起了業(yè)界的廣泛關(guān)注。
    的頭像 發(fā)表于 05-16 09:30 ?407次閱讀

    字節(jié)跳動發(fā)布豆包大模型

    在近日舉行的火山引擎原動力大會上,字節(jié)跳動公司正式發(fā)布了其強大的豆包大模型。據(jù)火山引擎總裁譚待透露,這款大模型展現(xiàn)了驚人的數(shù)據(jù)處理能力,目前
    的頭像 發(fā)表于 05-15 11:26 ?618次閱讀

    南開大學(xué)和字節(jié)跳動聯(lián)合開發(fā)一款StoryDiffusion模型

    近日,南開大學(xué)和字節(jié)跳動聯(lián)合開發(fā)的 StoryDiffusion 模型解決了擴散模型生成連貫圖像與視頻的難題。
    的頭像 發(fā)表于 05-07 14:46 ?994次閱讀

    ServiceNow、Hugging Face 和 NVIDIA 發(fā)布全新開放獲取 LLM,助力開發(fā)者運用生成式 AI 構(gòu)建企業(yè)應(yīng)用

    2024 年 2 月 28 日 - ServiceNow(NYSE:NOW)、Hugging Face 和 NVIDIA 于今日發(fā)布 StarCoder2,其為一系列用于代碼生成的開放
    發(fā)表于 02-29 11:12 ?213次閱讀
    ServiceNow、<b class='flag-5'>Hugging</b> <b class='flag-5'>Face</b> 和 NVIDIA <b class='flag-5'>發(fā)布</b>全新<b class='flag-5'>開放</b>獲取 LLM,助力開發(fā)者運用生成式 AI 構(gòu)建企業(yè)應(yīng)用

    字節(jié)跳動辟謠推出中文版Sora 期待國產(chǎn)Sora大模型

    字節(jié)跳動辟謠推出中文版Sora 期待國產(chǎn)Sora大模型 “文成視頻大模型”的熱度持續(xù)火爆,大家都在期待國產(chǎn)的大模型面世??萍季揞^
    的頭像 發(fā)表于 02-21 17:29 ?740次閱讀

    字節(jié)跳動辟謠推出中文版Sora

    近日,有關(guān)字節(jié)跳動在Sora引爆文生視頻賽道之前,已研發(fā)出“中文版Sora”的傳言在網(wǎng)絡(luò)上流傳。據(jù)稱,這款創(chuàng)新性視頻模型名為Boximator,具備通過文本精準控制生成視頻中人物或物體
    的頭像 發(fā)表于 02-21 10:27 ?569次閱讀

    字節(jié)跳動澄清未推出中文版Sora

    近日,有傳聞稱字節(jié)跳動在Sora文生視頻模型發(fā)布之前,已經(jīng)推出了一款名為Boximator的顛覆性視頻
    的頭像 發(fā)表于 02-20 13:58 ?548次閱讀

    字節(jié)跳動推出一款顛覆性視頻模型—Boximator

    在 Sora 引爆文生視頻賽道之前,國內(nèi)的字節(jié)跳動也推出了一款顛覆性視頻模型——Boximator。
    的頭像 發(fā)表于 02-20 13:44 ?896次閱讀
    <b class='flag-5'>字節(jié)</b><b class='flag-5'>跳動</b>推出一款顛覆性視頻<b class='flag-5'>模型</b>—Boximator

    Hugging Face LLM部署大語言模型到亞馬遜云科技Amazon SageMaker推理示例

    ?本篇文章主要介紹如何使用新的Hugging Face LLM推理容器將開源LLMs,比如BLOOM大型語言模型部署到亞馬遜云科技Amazon SageMaker進行推理的示例。我們將部署12B
    的頭像 發(fā)表于 11-01 17:48 ?776次閱讀
    <b class='flag-5'>Hugging</b> <b class='flag-5'>Face</b> LLM部署大語言<b class='flag-5'>模型</b>到亞馬遜云科技Amazon SageMaker推理示例

    Hugging Face被限制訪問

    目前尚不清楚 Hugging Face 何時出現(xiàn)訪問限制問題。雅虎的報道稱,早在今年 5 月起,就已經(jīng)有用戶在 HF 的論壇上抱怨連接問題。另外有報道稱,至少從 9 月 12 日起,Hugging
    的頭像 發(fā)表于 10-22 15:51 ?1540次閱讀
    <b class='flag-5'>Hugging</b> <b class='flag-5'>Face</b>被限制訪問