0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

一種在生成對抗性學(xué)習(xí)框架下的新穎的視頻合成方法

倩倩 ? 來源:互聯(lián)網(wǎng)分析沙龍 ? 2020-04-09 14:13 ? 次閱讀

我們研究視頻到視頻的合成問題,其目的是學(xué)習(xí)從輸入源視頻(例如,一系列語義分割掩碼)到精確描述源視頻內(nèi)容的輸出真實感視頻的映射功能。

雖然它的圖像對應(yīng)物(圖像到圖像合成問題)是一個受歡迎的話題,但是視頻到視頻合成問題在文獻(xiàn)中很少探討。在不了解時間動態(tài)的情況下,將現(xiàn)有的圖像合成方法直接應(yīng)用于輸入視頻通常會導(dǎo)致視覺質(zhì)量低下的時間不連貫視頻。

在本文中,我們提出了一種在生成對抗性學(xué)習(xí)框架下的新穎的視頻合成方法。通過精心設(shè)計的生成器和鑒別器架構(gòu)以及時空對抗目標(biāo),我們可以通過多種輸入格式(包括分割蒙版,草圖和姿勢)獲得高分辨率,逼真的,時間上連貫的視頻結(jié)果。在多個基準(zhǔn)上進(jìn)行的實驗表明,與強基準(zhǔn)相比,我們的方法具有優(yōu)勢。

尤其是,我們的模型能夠合成長達(dá)30秒的街道場景的2K分辨率視頻,從而大大提高了視頻合成的最新水平。最后,我們將我們的方法應(yīng)用于未來的視頻預(yù)測,其性能超過了幾個最先進(jìn)的競爭系統(tǒng)。

我們的模型能夠合成長達(dá)30秒的街道場景的2K分辨率視頻,從而大大提高了視頻合成的最新水平。最后,我們將我們的方法應(yīng)用于未來的視頻預(yù)測,其性能超過了幾個最先進(jìn)的競爭系統(tǒng)。

我們的模型能夠合成長達(dá)30秒的街道場景的2K分辨率視頻,從而大大提高了視頻合成的最新水平。最后,我們將我們的方法應(yīng)用于未來的視頻預(yù)測,其性能超過了幾個最先進(jìn)的競爭系統(tǒng)。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 視頻
    +關(guān)注

    關(guān)注

    6

    文章

    1930

    瀏覽量

    72774
  • 圖像
    +關(guān)注

    關(guān)注

    2

    文章

    1079

    瀏覽量

    40375
  • 鑒別器
    +關(guān)注

    關(guān)注

    0

    文章

    8

    瀏覽量

    8751
收藏 人收藏

    評論

    相關(guān)推薦

    鑒源實驗室·如何通過雷達(dá)攻擊自動駕駛汽車-針對點云識別模型的對抗性攻擊的科普

    非常精確,它們也面臨一種新興的威脅——對抗性攻擊。 對抗性攻擊是一種通過微小但精心設(shè)計的擾動,旨在欺騙機器學(xué)習(xí)模型的攻擊方式。對于自動駕駛系
    的頭像 發(fā)表于 11-05 15:44 ?91次閱讀
    鑒源實驗室·如何通過雷達(dá)攻擊自動駕駛汽車-針對點云識別模型的<b class='flag-5'>對抗性</b>攻擊的科普

    視頻時鐘合成芯片怎么用

    視頻時鐘合成芯片(Video Clock Synthesizer,VCS)是一種用于生成和調(diào)整視頻信號時鐘的電子設(shè)備,廣泛應(yīng)用于
    的頭像 發(fā)表于 10-10 11:17 ?176次閱讀

    altium designer原理圖生成方法

    以下是關(guān)于Altium Designer原理圖生成方法的步驟: 準(zhǔn)備工作 在開始繪制原理圖之前,需要進(jìn)行些準(zhǔn)備工作,包括: 1.1 安裝Altium Designer軟件:首先,確保您的計算機
    的頭像 發(fā)表于 09-02 16:25 ?478次閱讀

    微液滴生成方法及發(fā)展趨勢

    微液滴 的生成方法 早期使用的生成液滴方法主要有高速攪拌法、逐層組裝技術(shù)、膜乳化法和界面聚合法等, 均可生成微納米尺寸的液滴。 高速攪拌法工序少、操作簡單、成本低; 逐層組裝技術(shù)通用性
    的頭像 發(fā)表于 07-26 13:27 ?291次閱讀

    深度學(xué)習(xí)中反卷積的原理和應(yīng)用

    像分割、圖像重建和生成對抗網(wǎng)絡(luò)(GANs)等,反卷積展現(xiàn)出了其獨特的優(yōu)勢和廣泛的應(yīng)用前景。本文將詳細(xì)探討深度學(xué)習(xí)中的反卷積技術(shù),包括其定義、原理、實現(xiàn)方式、應(yīng)用場景以及與其他上采樣方法的比較,以期為讀者提供
    的頭像 發(fā)表于 07-14 10:22 ?1251次閱讀

    生成對抗網(wǎng)絡(luò)(GANs)的原理與應(yīng)用案例

    生成對抗網(wǎng)絡(luò)(Generative Adversarial Networks,GANs)是一種由蒙特利爾大學(xué)的Ian Goodfellow等人在2014年提出的深度學(xué)習(xí)算法。GANs通過構(gòu)建兩個
    的頭像 發(fā)表于 07-09 11:34 ?732次閱讀

    深度學(xué)習(xí)中的無監(jiān)督學(xué)習(xí)方法綜述

    應(yīng)用中往往難以實現(xiàn)。因此,無監(jiān)督學(xué)習(xí)在深度學(xué)習(xí)中扮演著越來越重要的角色。本文旨在綜述深度學(xué)習(xí)中的無監(jiān)督學(xué)習(xí)方法,包括自編碼器、生成對抗網(wǎng)絡(luò)、
    的頭像 發(fā)表于 07-09 10:50 ?388次閱讀

    如何用C++創(chuàng)建簡單的生成式AI模型

    生成式AI(Generative AI)是一種人工智能技術(shù),它通過機器學(xué)習(xí)模型和深度學(xué)習(xí)技術(shù),從大量歷史數(shù)據(jù)中學(xué)習(xí)對象的特征和規(guī)律,從而能夠
    的頭像 發(fā)表于 07-05 17:53 ?701次閱讀

    ESP32-S3-KROVO2如何在ADF框架下實現(xiàn)wifi連接?

    本人現(xiàn)在想要做個項目,能夠?qū)崿F(xiàn)wifi連接并在LCD上顯示圖片,目前能夠分別使用idf框架實現(xiàn)wifi連接,和adf框架下的圖片LCD顯示,但是找不到方法把兩個例程結(jié)合起來,初步想法
    發(fā)表于 06-28 08:02

    阿里云視頻生成技術(shù)創(chuàng)新!視頻生成使用了哪些AI技術(shù)和算法

    照片就能讓 EMO 合成演戲唱歌視頻。 ? 阿里云在視頻生成領(lǐng)域的創(chuàng)新 ? EMO(Emote Portrait Alive)是個由阿里巴巴集團(tuán)智能計算研究院開發(fā)的
    的頭像 發(fā)表于 05-08 00:07 ?3303次閱讀

    LiDAR4D:基于時空新穎的LiDAR視角合成框架

    NeRF-LiDAR將圖像和點云模態(tài)整合到激光雷達(dá)合成中,而諸如LiDAR-NeRF和NFL之類的僅激光雷達(dá)的方法探索了在沒有RGB圖像的情況下進(jìn)行激光雷達(dá)重建和生成的可能性。
    發(fā)表于 04-10 12:34 ?1146次閱讀
    LiDAR4D:基于時空<b class='flag-5'>新穎</b>的LiDAR視角<b class='flag-5'>合成</b><b class='flag-5'>框架</b>

    檢索增強生成(RAG)如何助力企業(yè)為各種企業(yè)用例創(chuàng)建高質(zhì)量的內(nèi)容?

    在生成式 AI 時代,機器不僅要從數(shù)據(jù)中學(xué)習(xí),還要生成類似人類樣的文本、圖像、視頻等。檢索增強生成
    的頭像 發(fā)表于 03-29 15:09 ?824次閱讀

    深度學(xué)習(xí)生成對抗網(wǎng)絡(luò)(GAN)全解析

    GANs真正的能力來源于它們遵循的對抗訓(xùn)練模式。生成器的權(quán)重是基于判別器的損失所學(xué)習(xí)到的。因此,生成器被它生成的圖像所推動著進(jìn)行訓(xùn)練,很難知
    發(fā)表于 03-29 14:42 ?4281次閱讀
    深度<b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>生成對抗</b>網(wǎng)絡(luò)(GAN)全解析

    介紹一種使用2D材料進(jìn)行3D集成的新方法

    美國賓夕法尼亞州立大學(xué)的研究人員展示了一種使用2D材料進(jìn)行3D集成的新穎方法。
    的頭像 發(fā)表于 01-13 11:37 ?1007次閱讀

    如何在PyTorch中使用擴(kuò)散模型生成圖像

    除了頂尖的圖像質(zhì)量,擴(kuò)散模型還帶來了許多其他好處,包括不需要對抗性訓(xùn)練。對抗訓(xùn)練的困難是有據(jù)可查的。在訓(xùn)練效率的話題上,擴(kuò)散模型還具有可伸縮性和并行性的額外好處。
    發(fā)表于 11-22 15:51 ?452次閱讀
    如何在PyTorch中使用擴(kuò)散模型<b class='flag-5'>生成</b>圖像