0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

谷歌研究人員利用3D卷積網(wǎng)絡(luò)打造視頻生成新系統(tǒng)

DPVg_AI_era ? 來源:lq ? 2019-06-02 09:30 ? 次閱讀

谷歌研究人員利用3D卷積網(wǎng)絡(luò)打造視頻生成新系統(tǒng),只需要視頻的第一幀和最后一幀,就能生成完整合理的整段視頻,是不是很神奇?

漫畫書秒變動畫片了解一下?

想象一下,現(xiàn)在你的手中有一段視頻的第一幀和最后一幀圖像,讓你負(fù)責(zé)把中間的圖像填進(jìn)去,生成完整的視頻,從現(xiàn)有的有限信息中推斷出整個視頻。你能做到嗎?

這可能聽起來像是一項不可能完成的任務(wù),但谷歌人工智能研究部門的研究人員已經(jīng)開發(fā)出一種新系統(tǒng),可以由視頻第一幀和最后一幀生成“似是而非的”視頻序列,這個過程被稱為“inbetween”。

“想象一下,如果我們能夠教一個智能系統(tǒng)來將漫畫自動變成動畫,會是什么樣子?如果真實現(xiàn)了這一點,無疑將徹底改變動畫產(chǎn)業(yè)?!霸撜撐牡墓餐髡邔懙?。“雖然這種極其節(jié)省勞動力的能力仍然超出目前最先進(jìn)的水平,但計算機視覺機器學(xué)習(xí)技術(shù)的進(jìn)步正在使這個目標(biāo)的實現(xiàn)越來越接近?!?/p>

原理與模型結(jié)構(gòu)

這套AI系統(tǒng)包括一個完全卷積模型,這是是受動物視覺皮層啟發(fā)打造的深度神經(jīng)網(wǎng)絡(luò),最常用于分析視覺圖像。它由三個部分組成:2D卷積圖像解碼器,3D卷積潛在表示生成器,以及視頻生成器。

圖1:視頻生成模型示意圖

圖像解碼器將來自目標(biāo)視頻的幀映射到潛在空間,潛在表示生成器學(xué)習(xí)對包含在輸入幀中的信息進(jìn)行合并。最后,視頻生成器將潛在表示解碼為視頻中的幀。

研究人員表示,將潛在表示生成與視頻解碼分離對于成功實現(xiàn)中間視頻至關(guān)重要,直接用開始幀和結(jié)束幀的編碼表示生成視頻的結(jié)果很差。為了解決這個問題,研究人員設(shè)計了潛在表示生成器,對幀的表示進(jìn)行融合,并逐步增加生成視頻的分辨率。

圖2:模型生成的視頻幀序列圖,對于每個數(shù)據(jù)集上方的圖表示模型生成的序列,下方為原視頻,其中首幀和尾幀用于生成模型的采樣。

實驗結(jié)果

為了驗證該方法,研究人員從三個數(shù)據(jù)集中獲取視頻 - BAIR機器人推送,KTH動作數(shù)據(jù)庫和UCF101動作識別數(shù)據(jù)集 - 并將這些數(shù)據(jù)下采樣至64 x 64像素的分辨率。每個樣本總共包含16幀,其中的14幀由AI系統(tǒng)負(fù)責(zé)生成。

研究人員為每對視頻幀運行100次模型,并對每個模型變量和數(shù)據(jù)集重復(fù)10次,在英偉達(dá)Tesla V100顯卡平臺上的訓(xùn)練時間約為5天。結(jié)果如下表所示:

表1:我們報告了完整模型和兩個基線的平均FVD,對每個模型和數(shù)據(jù)集重復(fù)10次,每次運行100個epoch,表中FVD值越低,表示對應(yīng)生成視頻的質(zhì)量越高。

表2:使用直接3D卷積和基于的替代方法的模型的平均SSIM

RNN(SDVI)或光流(SepConv和SuperSloMo),數(shù)值越高越好。

研究人員表示,AI生成的視頻幀序列在風(fēng)格上與給定的起始幀和結(jié)束幀保持一致,而且看上去說得通?!傲钊梭@喜的是,這種方法可以在如此長的時間段內(nèi)實現(xiàn)視頻生成,”該團(tuán)隊表示,“這可能給未來的視頻生成技術(shù)研究提供了一個有用的替代視角?!?/p>

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 解碼器
    +關(guān)注

    關(guān)注

    9

    文章

    1129

    瀏覽量

    40626
  • 谷歌
    +關(guān)注

    關(guān)注

    27

    文章

    6127

    瀏覽量

    104907
  • 智能系統(tǒng)
    +關(guān)注

    關(guān)注

    2

    文章

    392

    瀏覽量

    72392

原文標(biāo)題:谷歌AI動畫接龍:只用頭尾兩幀圖像,片刻生成完整視頻!

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    歡創(chuàng)播報 騰訊元寶首發(fā)3D生成應(yīng)用

    1 騰訊元寶首發(fā)3D生成應(yīng)用 只需一張照片,便能迅速打造獨一無二的3D角色。7月16日,騰訊旗下大模型應(yīng)用“騰訊元寶”上線了“3D角色夢工廠
    的頭像 發(fā)表于 07-18 11:39 ?684次閱讀
    歡創(chuàng)播報 騰訊元寶首發(fā)<b class='flag-5'>3D</b><b class='flag-5'>生成</b>應(yīng)用

    奧比中光3D相機打造高質(zhì)量、低成本的3D動作捕捉與3D動畫內(nèi)容生成方案

    ? 在過去幾十年里,動作捕捉(MoCap)技術(shù)經(jīng)歷了顯著的發(fā)展,廣泛被應(yīng)用于電影、游戲、虛擬現(xiàn)實、醫(yī)療等多個領(lǐng)域。近期,奧比中光合作客戶Moverse使用Orbbec Femto系列3D相機,打造
    的頭像 發(fā)表于 06-25 16:37 ?976次閱讀

    Runway發(fā)布Gen-3 Alpha視頻生成模型

    專為電影和圖像內(nèi)容創(chuàng)作者提供生成式AI工具的Runway公司近日宣布,其最新的Gen-3 Alpha視頻生成模型已經(jīng)正式問世。這款模型在多方面均取得了顯著的進(jìn)步,為創(chuàng)作者們帶來了前所未有的便利和可能性。
    的頭像 發(fā)表于 06-19 09:25 ?509次閱讀

    谷歌發(fā)布全新視頻生成模型Veo與Imagen文生圖模型

    谷歌近日宣布了兩項重大技術(shù)進(jìn)展,首先是視頻生成模型Veo的正式推出。這款先進(jìn)的模型能夠支持生成質(zhì)量更高的視頻內(nèi)容,讓用戶能夠根據(jù)自己的需求設(shè)定光照、鏡頭語言、
    的頭像 發(fā)表于 05-16 10:46 ?353次閱讀

    阿里云視頻生成技術(shù)創(chuàng)新!視頻生成使用了哪些AI技術(shù)和算法

    照片就能讓 EMO 合成演戲唱歌視頻。 ? 阿里云在視頻生成領(lǐng)域的創(chuàng)新 ? EMO(Emote Portrait Alive)是一個由阿里巴巴集團(tuán)智能計算研究院開發(fā)的框架,一個音頻驅(qū)動的 AI 肖像
    的頭像 發(fā)表于 05-08 00:07 ?3289次閱讀

    NVIDIA生成式AI研究實現(xiàn)在1秒內(nèi)生成3D形狀

    NVIDIA 研究人員使 LATTE3D (一款最新文本轉(zhuǎn) 3D 生成式 AI 模型)實現(xiàn)雙倍加速。
    的頭像 發(fā)表于 03-27 10:28 ?449次閱讀
    NVIDIA<b class='flag-5'>生成</b>式AI<b class='flag-5'>研究</b>實現(xiàn)在1秒內(nèi)<b class='flag-5'>生成</b><b class='flag-5'>3D</b>形狀

    Stability AI推出Stable Video 3D模型,可制作多視角3D視頻

    SV3D_u是Stable Video 3D的一個版本,僅需單幅圖片即可生成運動軌跡視頻,無須進(jìn)行相機調(diào)整。擴(kuò)充版本的SV3D_p加入了軌道
    的頭像 發(fā)表于 03-21 14:57 ?917次閱讀

    新火種AI|圍攻光明頂:Sora效應(yīng)下的AI視頻生成競賽

    Sora的出現(xiàn),讓AI視頻生成領(lǐng)域真正“活”了起來
    的頭像 發(fā)表于 03-16 11:12 ?580次閱讀

    openai發(fā)布首個視頻生成模型sora

    美國當(dāng)?shù)貢r間2024年2月15日 ,OpenAI正式發(fā)布文生視頻模型Sora ,并發(fā)布了48個文生視頻案例和技術(shù)報告 ,正式入局視頻生成領(lǐng)域 。Sora能夠根據(jù)提示詞生成60s的連貫
    的頭像 發(fā)表于 02-21 16:45 ?1146次閱讀

    OpenAI發(fā)布文生視頻模型Sora,引領(lǐng)AI視頻生成新紀(jì)元

    在人工智能(AI)領(lǐng)域掀起新一輪革命浪潮的,正是OpenAI最新推出的文生視頻大模型——Sora。這款被業(yè)界廣泛贊譽的模型,以其“逼真”和“富有想象力”的視頻生成能力,徹底顛覆了傳統(tǒng)視頻生成領(lǐng)域的局限,將平均
    的頭像 發(fā)表于 02-19 11:03 ?853次閱讀

    OpenAI發(fā)布首個視頻生成模型Sora

    OpenAI近日宣布推出其全新的文本到視頻生成模型——Sora。這一突破性的技術(shù)將視頻創(chuàng)作帶入了一個全新的紀(jì)元,為用戶提供了前所未有的創(chuàng)作可能性。
    的頭像 發(fā)表于 02-18 10:07 ?974次閱讀

    介紹一種使用2D材料進(jìn)行3D集成的新方法

    美國賓夕法尼亞州立大學(xué)的研究人員展示了一種使用2D材料進(jìn)行3D集成的新穎方法。
    的頭像 發(fā)表于 01-13 11:37 ?998次閱讀

    4DGen:基于動態(tài)3D高斯的可控4D生成新工作

    盡管3D視頻生成取得了飛速的發(fā)展,由于缺少高質(zhì)量的4D數(shù)據(jù)集,4D生成始終面臨著巨大的挑戰(zhàn)。
    的頭像 發(fā)表于 01-04 15:57 ?806次閱讀
    4DGen:基于動態(tài)<b class='flag-5'>3D</b>高斯的可控4<b class='flag-5'>D</b><b class='flag-5'>生成</b>新工作

    研究人員3D打印出有骨骼、韌帶和肌腱的機器人手

    3d打印技術(shù)可以將數(shù)碼模型直接轉(zhuǎn)換成實際物體,快速從設(shè)計轉(zhuǎn)換到生產(chǎn)。瑞士蘇黎世聯(lián)邦理工大學(xué)和美國一家新生企業(yè)的研究員在這項新研究中使用了柔軟且緩慢凝固的聚合物材料,而不是經(jīng)常用于3d
    的頭像 發(fā)表于 11-21 10:07 ?587次閱讀

    研究人員設(shè)計一種新的3D噴墨打印技術(shù)

    據(jù)悉,一只帶韌帶和肌腱的骨骼機械手現(xiàn)在可以通過一次3D打印完成 —— 這是通過一種新的增材制造方法實現(xiàn)的,這種方法可以同時以高分辨率打印剛性和彈性材料。 這項新工作是瑞士蘇黎世聯(lián)邦理工學(xué)院的研究人員
    的頭像 發(fā)表于 11-20 17:01 ?673次閱讀