0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

文生視頻,硬件成本是最大攔路虎

E4Life ? 來源:電子發(fā)燒友網(wǎng) ? 作者:周凱揚 ? 2024-02-26 09:13 ? 次閱讀



電子發(fā)燒友網(wǎng)報道(文/周凱揚)自文本與圖片類的AIGC爆火以來,幾乎所有互聯(lián)網(wǎng)公司和應(yīng)用開發(fā)商都在跟進(jìn)。然而近期隨著Sora的爆火,決定開發(fā)同類應(yīng)用的廠商卻少之又少,這就不得不談到硬件成本的問題,畢竟一個能夠?qū)崿F(xiàn)文生視頻的應(yīng)用,服務(wù)器成本要遠(yuǎn)遠(yuǎn)高于GPT類應(yīng)用。

從文生視頻模型的配置談硬件成本

對于目前市面上的一些文生視頻模型而言,其配置往往決定了體驗的好壞。就拿Runway的Gen-2模型來說,其最大的特點在于可以生成4K級別分辨率的視頻,且具備影視級別的構(gòu)圖和運鏡,支持圖片和文本的指令輸入。

然后是最近一炮走紅的Sora,其將最大時長做到了1分鐘,且支持符合部分物理規(guī)律的世界模型,以及多鏡頭的切換等。不過與Gen-2模型一樣,其對分辨率也進(jìn)行了限制,甚至只能生成1080p的視頻。

其他文生視頻模型的配置則更加捉襟見肘,比如Meta的Emu Video只能生成最長4秒的512x512分辨率視頻等等。從以上文生視頻模型看來,由于為了確保畫面一致性,視頻分辨率、視頻長度和每秒幀數(shù)往往決定了生成單個視頻的硬件負(fù)載。目前對于硬件要求最高的應(yīng)該是Runway的Gen-2和OpenAI的Sora。

這也是為何文生視頻應(yīng)用均采用訂閱模式,甚至是按量訂閱的付費策略,比如生成視頻的項目數(shù)量、存儲空間、導(dǎo)出質(zhì)量等,文生視頻考驗的不僅是服務(wù)器算力,還有存儲成本。畢竟為了方便用戶回溯,這些生成的視頻依然需要存儲在服務(wù)器上一段時間。

就以Runway為例,要想完全無限制地生成視頻功能,每月訂閱費用高達(dá)76美元,且這僅僅意味著450s的Gen-2視頻生成,如果用戶需要生成更多內(nèi)容,則還需要額外購買。可見為了維持服務(wù)器費用,文生視頻應(yīng)用面臨的成本壓力要遠(yuǎn)大于GPT類應(yīng)用。

不只是云端,硬件成本也決定了本地部署的難度

從ChatGPT和Stable Diffusion這兩個最火的AIGC應(yīng)用就可以看出,硬件是開發(fā)這類應(yīng)用的最大門檻之一?;诘统杀居布蛟斓念怌hatGPT應(yīng)用響應(yīng)時間慢,生成內(nèi)容質(zhì)量差。而Stable Diffusion這類文生圖模型,已經(jīng)可以在消費級硬件上實現(xiàn)不錯的效果,甚至可以普及到一些低功耗的端側(cè)設(shè)備上。

但對于Sora這類文生視頻的模型而言,要想在消費級實現(xiàn)本地部署可謂是難于登天,在完成內(nèi)容的基本生成工作后,還需要經(jīng)歷風(fēng)格化、分鏡、遮罩、渲染和自定義等一系列流程,可以說不僅考驗硬件的AI算力,也對視頻渲染能力提出了更高的要求。

據(jù)了解,一批開源開發(fā)者已經(jīng)在構(gòu)建OpenAI Sora的復(fù)制版本,且可以在使用消費級英偉達(dá)GPU的高配電腦上跑通。不過馬斯克也評論道,他也認(rèn)為這是可行的,但是幀渲染速率會非常低。如果需要花上數(shù)小時,才能生成出一個質(zhì)量較差的4秒視頻,對于絕大多數(shù)用戶來說,必然不是好的體驗。

寫在最后

要論硬件成本的話,對于應(yīng)用開發(fā)者和用戶而言,文生視頻目前還是一個較為昂貴的“玩具”。但我們也不能否認(rèn)其前景,隨著算力成本逐漸下降,未來文生視頻不僅可以作為內(nèi)容創(chuàng)作途徑,也可以作為輔助工具,替代掉一部分重復(fù)性工作,尤其是在廣告視頻行業(yè)。

不過這類應(yīng)用的出現(xiàn),也會讓我們開始重新審視起GPU在AIGC硬件市場的地位,畢竟多出了圖形渲染這一額外的硬件要求,其他的ASIC方案在這方面固然會遜色GPU一籌。再加上英偉達(dá)GPU在物理仿真上的優(yōu)勢,或許文生視頻會給英偉達(dá)帶來更多的市場機遇。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    28877

    瀏覽量

    266254
  • AIGC
    +關(guān)注

    關(guān)注

    1

    文章

    332

    瀏覽量

    1374
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    2136

    瀏覽量

    1985
  • Sora
    +關(guān)注

    關(guān)注

    0

    文章

    75

    瀏覽量

    176
收藏 人收藏

    評論

    相關(guān)推薦

    智譜AI正在研發(fā)國產(chǎn)文生視頻模型,對標(biāo)OpenAI Sora

    國內(nèi)AI領(lǐng)域的獨角獸企業(yè)智譜AI正全力研發(fā)一款與OpenAI的Sora相媲美的國產(chǎn)文生視頻模型。據(jù)悉,該模型的技術(shù)研發(fā)已取得顯著進(jìn)展,預(yù)計最快將于今年內(nèi)正式對外發(fā)布。
    的頭像 發(fā)表于 05-13 11:14 ?561次閱讀

    智譜AI正研發(fā)對標(biāo)Sora的國產(chǎn)文生視頻模型

    智譜AI,這家國內(nèi)估值超過200億的AI大模型獨角獸企業(yè),正全力投入研發(fā)一款與OpenAI的Sora相媲美的國產(chǎn)文生視頻模型。據(jù)公司內(nèi)部人士透露,該模型預(yù)計最快將在今年內(nèi)發(fā)布,將成為AI視頻生成領(lǐng)域的一大亮點。
    的頭像 發(fā)表于 05-07 09:22 ?450次閱讀

    OpenAI發(fā)布文生視頻大模型Sora、英偉達(dá)市值超谷歌

    OpenAI加入文生視頻大模型的戰(zhàn)局,AI大模型進(jìn)入視頻生成的階段,這將進(jìn)一步刺激AI芯片的需求。 OpenAI發(fā)布文生視頻大模型Sora,
    的頭像 發(fā)表于 03-28 18:13 ?753次閱讀

    7萬張H100打造的OpenAI文生視頻Sora功能原理詳解|Sora注冊全攻略

    近日,OpenAI發(fā)布的基于Transformer架構(gòu)的文生視頻Sora,可謂是在AI圈掀起新的熱潮。該模型具有強大的視頻生成能力,可產(chǎn)生高達(dá)一分鐘的高清視頻,并且用戶可以自由指定
    的頭像 發(fā)表于 02-29 11:48 ?880次閱讀
    7萬張H100打造的OpenAI<b class='flag-5'>文生</b><b class='flag-5'>視頻</b>Sora功能原理詳解|Sora注冊全攻略

    OpenAI文生視頻模型Sora要點分析

    近日,美國人工智能公司OpenAI發(fā)布了首個視頻生成模型Sora。不同于此前許多AI大模型文生圖或視頻時,會出現(xiàn)人物形象前后不一致等問題
    的頭像 發(fā)表于 02-22 16:37 ?867次閱讀
    OpenAI<b class='flag-5'>文生</b><b class='flag-5'>視頻</b>模型Sora要點分析

    OpenAI新推文生視頻大模型Sora引發(fā)熱議,首批受益者涌現(xiàn)

    在科技浪潮中,OpenAI再次引領(lǐng)潮流。繼2023年的文生文大語言模型之后,2024年春節(jié)期間,OpenAI推出的文生視頻大模型Sora迅速成為全球科技界的焦點。這款模型能夠根據(jù)文本內(nèi)容生成高質(zhì)量的
    的頭像 發(fā)表于 02-22 14:15 ?612次閱讀

    OpenAI發(fā)布人工智能文生視頻大模型Sora

    近日,人工智能領(lǐng)域的領(lǐng)軍企業(yè)OpenAI宣布推出其最新的人工智能文生視頻大模型——Sora。這款模型在繼承DALL-E 3卓越畫質(zhì)和遵循指令能力的基礎(chǔ)上,實現(xiàn)了對真實物理世界的深度模擬,為視頻制作領(lǐng)域帶來了前所未有的變革。
    的頭像 發(fā)表于 02-20 13:54 ?715次閱讀

    OpenAI發(fā)布文生視頻模型Sora,開啟AI內(nèi)容創(chuàng)作新紀(jì)元

    近日,人工智能領(lǐng)域的領(lǐng)軍企業(yè)OpenAI在其官網(wǎng)上正式發(fā)布了名為Sora的文生視頻大模型。這款模型具備根據(jù)用戶提示生成長達(dá)一分鐘視頻的能力,并在視頻連貫性、角色一致性等方面表現(xiàn)出色,幾
    的頭像 發(fā)表于 02-20 13:44 ?506次閱讀

    英偉達(dá)市值躍居全球第四 文生視頻大模型Sora帶動

    英偉達(dá)市值躍居全球第四 文生視頻大模型Sora帶動 文生視頻大模型Sora引發(fā)市場關(guān)注;OpenAI的首款文生
    的頭像 發(fā)表于 02-19 16:48 ?888次閱讀

    OpenAI發(fā)布文生視頻模型Sora,引領(lǐng)AI視頻生成新紀(jì)元

    在人工智能(AI)領(lǐng)域掀起新一輪革命浪潮的,正是OpenAI最新推出的文生視頻大模型——Sora。這款被業(yè)界廣泛贊譽的模型,以其“逼真”和“富有想象力”的視頻生成能力,徹底顛覆了傳統(tǒng)視頻
    的頭像 發(fā)表于 02-19 11:03 ?784次閱讀

    OpenAI推出全新文生視頻模型Sora

    近日,全球領(lǐng)先的人工智能研究公司OpenAI宣布推出其最新的文生視頻大模型“Sora”。該模型具有突破性的功能,能夠根據(jù)用戶提供的文本指令或靜態(tài)圖像,自動生成長達(dá)1分鐘的高清視頻。這些視頻
    的頭像 發(fā)表于 02-19 10:56 ?686次閱讀

    奧特曼發(fā)布王炸模型Sora OpenAI首個文生視頻模型Sora正式亮相

    奧特曼發(fā)布王炸模型Sora OpenAI首個文生視頻模型Sora正式亮相 2月16日凌晨OpenAI的首個文生視頻模型Sora正式亮相。Sora只需輸入文字,便可生成一段長達(dá)60秒的高
    的頭像 發(fā)表于 02-18 17:41 ?864次閱讀

    OpenOCD是什么?J-Link、J-Trace、Open JTAG的區(qū)別

    最近在調(diào)試一些單板,對于這個調(diào)試工具我真的是又愛又恨,熟悉了那就是金箍棒,不熟悉那就是攔路虎。
    的頭像 發(fā)表于 12-12 09:43 ?8063次閱讀
    OpenOCD是什么?J-Link、J-Trace、Open JTAG的區(qū)別

    連接器的真正成本是多少?

    連接器通常是根據(jù)購買價格來選擇的,而沒有充分考慮與使用它們相關(guān)的成本。連接器的真正成本是多少?
    的頭像 發(fā)表于 12-01 16:14 ?1033次閱讀

    哪位大佬能提供一下中科微CSM32RV003單片機開發(fā)系統(tǒng)中g(shù)pio.h文件的中文解釋,及用法

    卻是攔路虎,還有那些英文水平差的人,電子技術(shù)水平較低的人,很是打擊學(xué)習(xí)的積極性。哪位大佬能把gpio.h加上中文注釋,在函數(shù)中怎么用的,配套的電路圖等,讓初學(xué)者少走些彎路。
    發(fā)表于 10-26 09:47