0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

使用URL2Video可以將網(wǎng)頁快速生成有創(chuàng)意的短視頻

LiveVideoStack ? 來源:LiveVideoStack ? 作者:LiveVideoStack ? 2020-12-07 14:07 ? 次閱讀

機(jī)器學(xué)習(xí)可以實現(xiàn)對網(wǎng)頁內(nèi)容的理解,并選取關(guān)鍵對象生成有趣的短視頻。Google研究團(tuán)隊通過使用URL2Video可以將網(wǎng)頁快速生成有創(chuàng)意的短視頻。包括百度、快手、字節(jié)跳動等都有相關(guān)的短視頻自動化生產(chǎn)工具,隨著技術(shù)的成熟,將有大量的短視頻出自自動化工具之手。在12月的LiveVideoStackCon 2020 SFO線上大會上,百度美國研究院資深研究員陳曦將會介紹“無人值守的大規(guī)模AI視頻生產(chǎn)”。

在Google,我們正在積極探索在制作多媒體內(nèi)容時,人們?nèi)绾问褂糜蓹C(jī)器學(xué)習(xí)和計算方法提供的創(chuàng)造性工具,從創(chuàng)作音樂、重新架構(gòu)視頻,到繪畫等等都涉及到了這方面內(nèi)容。尤其是視頻制作這樣一個頗具創(chuàng)意的過程,它可以很好地受益于這些工具,因為它需要做出一系列決策,確定哪些內(nèi)容最適合目標(biāo)受眾,如何在視圖中妥善排布現(xiàn)有資源,以及怎樣進(jìn)行時間安排能夠帶來最具吸引力的描述。但假如一個人能利用現(xiàn)有的資源,比如一個網(wǎng)站,來開啟視頻創(chuàng)作呢?大多數(shù)企業(yè)主辦的網(wǎng)站都呈現(xiàn)了關(guān)于其產(chǎn)品或服務(wù)豐富的視圖內(nèi)容,所有這些內(nèi)容都可以被重新應(yīng)用到其他多媒體格式,比如視頻,這可能使那些沒有大量資源的人能夠接觸到更廣泛的受眾。 2020年UIST上發(fā)表的“網(wǎng)頁端視頻的自動化制作”里,我們介紹了一種基于內(nèi)容所有者提供的時間和視圖限制,將網(wǎng)頁自動轉(zhuǎn)換為短視頻的研究原型——URL2Video。URL2Video從HTML源中提取資源(文本、圖像或視頻)及其設(shè)計風(fēng)格(包括字體、顏色、圖形布局和層次結(jié)構(gòu)),并將這些可視資源組合成一系列的快照,同時保持與源頁面相似的外觀和感覺,然后根據(jù)用戶指定的縱橫比和持續(xù)時間,將這些材料重新利用,渲染成一個適合產(chǎn)品和服務(wù)廣告的視頻。

URL2Video概述

假設(shè)用戶提供了一個闡述他們業(yè)務(wù)的網(wǎng)頁URL,URL2Video會自動從頁面中選擇關(guān)鍵內(nèi)容,并根據(jù)一組針對熟悉網(wǎng)頁設(shè)計和視頻廣告制作的設(shè)計師的訪談研究得到的啟發(fā)式算法,決定每個資源的時間和視圖展示。這些如設(shè)計師般熟知的啟發(fā)式算法捕獲常見的視頻編輯樣式,包括內(nèi)容層次結(jié)構(gòu),限制一個快照中的信息量及其持續(xù)時間,為品牌提供一致的顏色和樣式等等。利用這些信息,URL2Video解析網(wǎng)頁,分析內(nèi)容,選擇視覺突出的文本或圖像,同時保留它們的設(shè)計風(fēng)格,并根據(jù)用戶提供的視頻規(guī)范進(jìn)行組合。

通過在輸入的網(wǎng)頁中提取結(jié)構(gòu)內(nèi)容和設(shè)計,URL2Video做出自動編輯決策,在視頻中呈現(xiàn)關(guān)鍵信息。它考慮到用戶定義的輸出視頻的時間限定(比如以秒為單位的持續(xù)時間)和空間限定(比如高寬比)。

網(wǎng)頁分析

一個網(wǎng)頁的URL,URL2Video會提取它的文檔對象模型(DOM)信息和多媒體材料。出于研究模型的目的,我們將域限制在靜態(tài)網(wǎng)上,這些頁面包含HTML層次結(jié)構(gòu)中保存的突出資源和標(biāo)題,這些層次結(jié)構(gòu)遵循最近的網(wǎng)頁設(shè)計原則,鼓勵使用重點的元素、更清晰的部分以及引導(dǎo)讀者感知信息的視覺焦點順序。URL2Video將這些視覺上可區(qū)分的元素標(biāo)記到資源組的候選列表,每個元素可能包含一個標(biāo)題、一個產(chǎn)品圖象、詳細(xì)描述和調(diào)用操作按鈕,并捕獲每個元素的原始素材(文本和多媒體文件)和詳細(xì)的設(shè)計規(guī)范(HTML標(biāo)簽、CSS樣式和呈現(xiàn)位置)。然后,通過根據(jù)每個資源組的視覺外觀和注釋,包括它們的HTML標(biāo)簽、呈現(xiàn)的尺寸還有顯示在頁面上的順序?qū)γ總€組進(jìn)行排序。這樣,在頁面頂部占據(jù)較大區(qū)域的資源組將獲得更高的分?jǐn)?shù)。

限定型的資源選擇

在制作視頻時,我們考慮了兩個目標(biāo):(1)每個鏡頭都應(yīng)該提供簡潔的視頻信息;(2)視覺設(shè)計應(yīng)該與源網(wǎng)頁一致。基于這些目標(biāo)和用戶提供的視頻限定條件,包括預(yù)期的視頻持續(xù)時間(以秒為單位)和高寬比(通常為16:9、4:3、1:1等),URL2Video自動選擇并命令資源組優(yōu)化總體優(yōu)先級分?jǐn)?shù)。為了使內(nèi)容簡潔,它只顯示頁面中的主要元素,例如標(biāo)題和一些多媒體資源。它限定了觀眾所感知內(nèi)容的每個視覺元素的持續(xù)時間。這樣,簡短的視頻強(qiáng)調(diào)了頁面頂部最突出的信息,時間長一些的視頻則包含了更多的商業(yè)活動或產(chǎn)品信息。

畫面構(gòu)圖與視頻渲染

根據(jù)基于DOM層次結(jié)構(gòu)的有序資源列表,URL2Video并行依照從訪談研究中獲得的設(shè)計啟發(fā),對時間和空間安排做出決策,將資源在單個鏡頭中展現(xiàn)出來。它將元素的圖形布局轉(zhuǎn)換為視頻的縱橫比,并應(yīng)用了包括字體和顏色在內(nèi)的樣式選擇。為了使視頻更具動感和吸引力,它調(diào)整了資源的顯示時間。最后,它將內(nèi)容渲染為MPEG-4格式的視頻。

用戶控制

研究原型界面允許用戶查看源網(wǎng)頁提取的每個視頻鏡頭中的設(shè)計屬性,以及重新排版材料,更改細(xì)節(jié)設(shè)計,如顏色和字體,并更改限制條件來生成新的視頻。

在URL2Video的創(chuàng)作界面(左)中,用戶指定源頁面輸入的URL、目標(biāo)頁面視圖的大小以及輸出視頻參數(shù)。URL2Video分析網(wǎng)頁,并提取主要的視覺組件。由它組成了一系列的鏡頭,并將關(guān)鍵畫面可視化為一個故事板。這些組件滿足輸入時間和空間限定后輸出呈現(xiàn)為視頻。用戶可以播放視頻,檢查設(shè)計屬性(右下角),并進(jìn)行調(diào)整以做視頻更改,例如重新排序鏡頭(右上)。

URL2Video用例

我們在現(xiàn)有的各種網(wǎng)頁上演示了端到端的URL2Video的性能。下面我們特別展示一個實例結(jié)果,其中URL2Video將嵌入多個短視頻剪接的頁面轉(zhuǎn)換為一個12秒的輸出視頻。請注意它如何在從源網(wǎng)頁面捕獲的視頻中對字體和顏色選擇、時間和內(nèi)容排序作出自動編輯決定的。

URL2Video從我們的Google搜索介紹頁面(頂部)識別關(guān)鍵內(nèi)容,包括標(biāo)題和視頻資源。通過綜合考慮顯示流程、源設(shè)計和輸出限定,URL2Video將它們轉(zhuǎn)換為視頻(12秒的橫向視頻;底部) 下面的視頻作了進(jìn)一步的演示: https://www.youtube.com/watch?v=3yFYc-Wet8k&feature=youtu.be 為了評估自動生成的視頻,我們與Google的設(shè)計師進(jìn)行了一項用戶研究。實驗結(jié)果表明,URL2Video能夠有效地從網(wǎng)頁中提取設(shè)計元素,并通過引導(dǎo)視頻創(chuàng)建的過程為設(shè)計師提供支持。

下一步

雖然目前的研究集中在視覺展示,但我們正在開發(fā)新的技術(shù),以在視頻編輯中支持音軌和畫外音??傊覀冊O(shè)想的未來是,創(chuàng)作者專注于做出高層決策,而機(jī)器學(xué)習(xí)模型配合其在多個平臺上為最終視頻的制作提供詳細(xì)的時間和圖形編輯建議。

致謝

我們非常感謝我們的論文合著者Zheng Sun(Research)和Katrina Panovich(YouTube)。我們還要感謝我們的同事,他們(按姓氏的字幕順序)-JordanCanedy, Brian Curless, Nathan Frey, Madison Le, Alireza Mahdian, Justin Parra,Emily Ryan, Mogan Shieh, Sandor Szego和Weilong Yang-為URL2Video作出了貢獻(xiàn)。我們感謝我們的領(lǐng)導(dǎo)人Tomas Izo, RahulSukthankar和Jay Yagnik的支持。

責(zé)任編輯:lq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 自動化
    +關(guān)注

    關(guān)注

    28

    文章

    5386

    瀏覽量

    78627
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8306

    瀏覽量

    131841
  • 短視頻
    +關(guān)注

    關(guān)注

    1

    文章

    122

    瀏覽量

    8752

原文標(biāo)題:URL2Video:把網(wǎng)頁自動創(chuàng)建為短視頻

文章出處:【微信號:livevideostack,微信公眾號:LiveVideoStack】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    Adobe推出一款人工智能視頻生產(chǎn)工具

    Adobe即將在今年晚些時候震撼發(fā)布其最新力作——Adobe Firefly Video Model,一款專為創(chuàng)意專業(yè)人士打造的生成視頻創(chuàng)作與編輯神器。作為Firefly圖像
    的頭像 發(fā)表于 09-12 16:37 ?259次閱讀

    MATLAB-網(wǎng)頁訪問與關(guān)閉

    MATLAB Web 瀏覽器中打開 url 指定的網(wǎng)頁。如果 url 是外部網(wǎng)站,web(url) 將在您的系統(tǒng)瀏覽器中打開該網(wǎng)頁。如果打
    發(fā)表于 09-05 16:23

    創(chuàng)建Trigger時設(shè)置的url可以傳參數(shù)嗎?

    創(chuàng)建Trigger時設(shè)置的url可以傳參數(shù)嗎?設(shè)置url參數(shù)的話沒有效果啊。默認(rèn)url會傳遞參數(shù)嗎?在api文檔上沒有看到說明哦。
    發(fā)表于 07-15 07:30

    曠視AI開源新突破:上傳照片即可生成表情包視頻!

    為了展示其泛化性,MegActor甚至可以VASA中的人物肖像和視頻組合生成,得到生動的表情視頻。即使與阿里EMO的官方案例相比,MegA
    的頭像 發(fā)表于 07-12 11:20 ?236次閱讀
    曠視AI開源新突破:上傳照片即可<b class='flag-5'>生成</b>表情包<b class='flag-5'>視頻</b>!

    MediaTek聯(lián)合快手推出高效端側(cè)視頻生成技術(shù)

    的 AI 模型 I2V(image to video)Adapter 與 MediaTek 天璣 9300、天璣 8300 移動平臺強(qiáng)勁的 AI 算力,在端側(cè)實現(xiàn)由靜態(tài)圖像生成動態(tài)視頻
    的頭像 發(fā)表于 07-05 11:23 ?4395次閱讀

    Google開發(fā)專為視頻生成配樂的人工智能技術(shù)

    近日,科技巨頭Google旗下的人工智能研究實驗室DeepMind宣布了一項引人注目的技術(shù)突破——V2A技術(shù)(Video to Audio),這是一項專為視頻生成配樂的人工智能技術(shù)。這項技術(shù)的誕生,標(biāo)志著人工智能在媒體創(chuàng)作領(lǐng)域邁
    的頭像 發(fā)表于 06-20 11:03 ?376次閱讀

    微軟網(wǎng)頁版PPT新增語音識別及字幕生成功能

    據(jù)報道,微軟計劃于今年六月份推出網(wǎng)頁版PowerPoint全新語音識別功能。此項功能將能夠監(jiān)控PowerPoint視頻中的聲音,進(jìn)而自動生成字幕。
    的頭像 發(fā)表于 05-16 14:36 ?272次閱讀

    [技術(shù)干貨]?MoneyPrinterTurbo,利用 AI 大模型,一鍵生成高清短視頻

    開始使用 步驟 1?訪問該促銷活動購買頁面,按照如下配置完成 AI 生成短視頻服務(wù)器的部署。 步驟 2?登錄彈性云服務(wù)器控制臺。使用 Linux 連接工具登錄服務(wù)器,或者在控制臺單擊“遠(yuǎn)程登錄
    的頭像 發(fā)表于 04-07 15:11 ?1324次閱讀
    [技術(shù)干貨]?MoneyPrinterTurbo,利用 AI 大模型,一鍵<b class='flag-5'>生成</b>高清<b class='flag-5'>短視頻</b>

    Stability AI推出Stable Video 3D模型,可制作多視角3D視頻

    SV3D_u是Stable Video 3D的一個版本,僅需單幅圖片即可生成運動軌跡視頻,無須進(jìn)行相機(jī)調(diào)整。擴(kuò)充版本的SV3D_p加入了軌道視圖的特性,使其可以根據(jù)預(yù)設(shè)的相機(jī)路徑創(chuàng)建3
    的頭像 發(fā)表于 03-21 14:57 ?806次閱讀

    OpenAI 在 AI 生成視頻領(lǐng)域扔出一枚“王炸”,視頻生成模型“Sora”

    人工智能,根據(jù)書面命令立即創(chuàng)建短視頻。JAEALOT2024年2月16日2月16日凌晨,也就是中國大年初七,OpenAI在AI生成視頻領(lǐng)域扔
    的頭像 發(fā)表于 02-22 08:25 ?291次閱讀
    OpenAI 在 AI <b class='flag-5'>生成</b><b class='flag-5'>視頻</b>領(lǐng)域扔出一枚“王炸”,<b class='flag-5'>視頻生成</b>模型“Sora”

    openai發(fā)布首個視頻生成模型sora

    行業(yè)目前大概只有平均“4s”的視頻生成長度。 Sora能夠獲取現(xiàn)有視頻并對其進(jìn)行擴(kuò)展或填充缺失的幀,這一功能在視頻編輯、電影特效等領(lǐng)域具有應(yīng)用前景,可以幫助用戶
    的頭像 發(fā)表于 02-21 16:45 ?1072次閱讀

    OpenAI發(fā)布文生視頻模型Sora,引領(lǐng)AI視頻生成新紀(jì)元

    在人工智能(AI)領(lǐng)域掀起新一輪革命浪潮的,正是OpenAI最新推出的文生視頻大模型——Sora。這款被業(yè)界廣泛贊譽的模型,以其“逼真”和“富有想象力”的視頻生成能力,徹底顛覆了傳統(tǒng)視頻生成領(lǐng)域的局限,
    的頭像 發(fā)表于 02-19 11:03 ?783次閱讀

    鴻蒙ArkUI開發(fā)-Video組件的使用

    視頻功能為例,在應(yīng)用開發(fā)過程中,我們需要通過ArkUI提供的Video組件為應(yīng)用增加基礎(chǔ)的視頻播放功能。借助Video組件,我們可以實現(xiàn)
    的頭像 發(fā)表于 01-23 16:59 ?1042次閱讀
    鴻蒙ArkUI開發(fā)-<b class='flag-5'>Video</b>組件的使用

    【飛凌OK113i-S開發(fā)板試用】基于飛凌嵌入式OK113i網(wǎng)頁視頻監(jiān)控項目

    ,固定端口號為8080,建立HTTP長連接,實現(xiàn)網(wǎng)頁視頻監(jiān)控。 3.功能實現(xiàn) 1.移植交叉編譯器arm-linux-gnueabi-gcc。 2.移植矢量字庫freetye。 3.初始化攝像頭,通過
    發(fā)表于 01-09 11:31

    php生成動態(tài)網(wǎng)頁內(nèi)容的方法

    PHP是一種廣泛用于Web開發(fā)的腳本語言,可用于生成動態(tài)網(wǎng)頁內(nèi)容。在本文中,我們介紹使用PHP生成動態(tài)網(wǎng)頁內(nèi)容的方法。 什么是動態(tài)
    的頭像 發(fā)表于 12-04 16:22 ?668次閱讀