美國(guó)當(dāng)?shù)貢r(shí)間2024年2月15日 ,OpenAI正式發(fā)布文生視頻模型Sora ,并發(fā)布了48個(gè)文生視頻案例和技術(shù)報(bào)告 ,正式入局視頻生成領(lǐng)域 。Sora能夠根據(jù)提示詞生成60s的連貫視頻,“碾壓”了行業(yè)目前大概只有平均“4s”的視頻生成長(zhǎng)度
Sora可以根據(jù)用戶的文本提示創(chuàng)建最長(zhǎng)60秒的逼真視頻,該模型了解這些物體在物理世界中的存在方式,可以深度模擬真實(shí)物理世界,能生成具有多個(gè)角色、包含特定運(yùn)動(dòng)的復(fù)雜場(chǎng)景。繼承了DALL-E 3的畫(huà)質(zhì)和遵循指令能力,能理解用戶在提示中提出的要求。
Sora可以快速制作最長(zhǎng)一分鐘、準(zhǔn)確反映用戶提示、可一鏡到底的視頻 (其他AI視頻工具還在突破幾秒內(nèi)的連貫性 ),視頻可以呈現(xiàn)“具有多個(gè)角色、特定類型的動(dòng)作、以及主題和背景的準(zhǔn)確細(xì)節(jié)的復(fù)雜場(chǎng)景”
Sora對(duì)于需要制作視頻的藝術(shù)家、電影制片人或?qū)W生帶來(lái)無(wú)限可能,其是OpenAI“教AI理解和模擬運(yùn)動(dòng)中的物理世界”計(jì)劃的其中一步 ,也標(biāo)志著人工智能在理解真實(shí)世界場(chǎng)景并與之互動(dòng)的能力方面實(shí)現(xiàn)飛躍。
聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。
舉報(bào)投訴
相關(guān)推薦
電子發(fā)燒友網(wǎng)報(bào)道(文/梁浩斌)今年春節(jié)期間,OpenAI的AI文字生成視頻模型Sora驚艷全世界,極高的視頻生成效果、長(zhǎng)達(dá)60秒的視頻生成長(zhǎng)度,讓過(guò)去Pika Labs推出的Pika 1.0、去年
發(fā)表于 06-17 09:07
?3287次閱讀
湯姆貓?jiān)诨?dòng)平臺(tái)上透露,公司正在積極推進(jìn)申請(qǐng)接入OpenAI的Sora模型,并計(jì)劃進(jìn)行相關(guān)素材制作的測(cè)試。目前,湯姆貓尚未正式接入Sora模型。
發(fā)表于 03-05 10:20
?832次閱讀
Sora,美國(guó)人工智能研究公司OpenAI發(fā)布的人工智能文生視頻大模型(但OpenAI并未單純將其視為視頻模型,而是作為“世界模擬器” ),于2024年2月15日(美國(guó)當(dāng)?shù)貢r(shí)間)正式對(duì)外發(fā)布
發(fā)表于 02-22 17:05
?1223次閱讀
約為290億美元),且文生視頻大模型將會(huì)大幅推動(dòng)人工智能基礎(chǔ)設(shè)施的需求,英偉達(dá)、OpenAI、軟銀等巨頭公司都被曝正在進(jìn)行AI芯片的制造布局,英偉達(dá)也因大模型訓(xùn)練需要GPU算力支持而股價(jià)大漲 。與此同時(shí),受Sora發(fā)布的影響,美
發(fā)表于 02-22 17:00
?1744次閱讀
Sora,美國(guó)人工智能研究公司OpenAI發(fā)布的人工智能文生視頻大模型(但OpenAI并未單純將其視為視頻模型,而是作為“世界模擬器” ,于2024年2月15日(美國(guó)當(dāng)?shù)貢r(shí)間)正式對(duì)外發(fā)布
發(fā)表于 02-22 16:52
?3093次閱讀
sora模型的上市公司目前沒(méi)有相關(guān)官方的報(bào)道,因此無(wú)法給出準(zhǔn)確的回答。 Sora能夠獲取現(xiàn)有視頻并對(duì)其進(jìn)行擴(kuò)展或填充缺失的幀,這一功能在視頻編輯、電影特效等領(lǐng)域具有應(yīng)用前景,可以幫助用戶快速完成視頻
發(fā)表于 02-22 16:46
?1065次閱讀
近日,美國(guó)人工智能公司OpenAI發(fā)布了首個(gè)視頻生成模型Sora。不同于此前許多AI大模型文生圖或視頻時(shí),會(huì)出現(xiàn)人物形象前后不一致等問(wèn)題
發(fā)表于 02-22 16:37
?976次閱讀
字節(jié)跳動(dòng)辟謠推出中文版Sora 期待國(guó)產(chǎn)Sora大模型 “文成視頻大模型”的熱度持續(xù)火爆,大家都在期待國(guó)產(chǎn)的大模型面世??萍季揞^字節(jié)跳動(dòng)也有
發(fā)表于 02-21 17:29
?817次閱讀
Sora是一種擴(kuò)散模型,具備從噪聲中生成完整視頻的能力,它生成的視頻一開(kāi)始看起來(lái)像靜態(tài)噪音,通過(guò)多個(gè)步驟逐漸去除噪聲后,視頻也從最初的隨機(jī)像素轉(zhuǎn)化為清晰的圖像場(chǎng)景,其能夠一次生成多幀預(yù)測(cè),確保畫(huà)面
發(fā)表于 02-21 17:20
?2162次閱讀
Sora,是美國(guó)人工智能研究公司OpenAI發(fā)布的人工智能文生視頻大模型(但OpenAI并未單純將其視為視頻模型,而是作為“世界模擬器”,于2024年2月15日(美國(guó)當(dāng)?shù)貢r(shí)間)正式對(duì)外發(fā)布
發(fā)表于 02-21 16:38
?1808次閱讀
sora系列是哪個(gè)公司的 Sora,美國(guó)人工智能研究公司OpenAI發(fā)布的人工智能文生視頻大模型(但OpenAI并未單純將其視為視頻模型,而是作為“世界模擬器”,于2024年2月15日
發(fā)表于 02-21 16:35
?4267次閱讀
近日,人工智能領(lǐng)域的領(lǐng)軍企業(yè)OpenAI發(fā)布了一款名為“Sora”的視頻生成AI模型,再次展示了其在AI技術(shù)領(lǐng)域的創(chuàng)新實(shí)力。Sora以其出色的視頻生成能力,瞬間成為業(yè)界的焦點(diǎn)。
發(fā)表于 02-20 13:33
?724次閱讀
OpenAI的視頻生成模型Sora持續(xù)引發(fā)關(guān)注,而圍繞Sora到底懂不懂物理世界?這個(gè)討論越發(fā)火熱,甚至是在討論Sora 到底是不是物理引擎甚至世界
發(fā)表于 02-20 11:08
?640次閱讀
奧特曼發(fā)布王炸模型Sora OpenAI首個(gè)文生視頻模型Sora正式亮相 2月16日凌晨OpenAI的首個(gè)文生視頻模型
發(fā)表于 02-18 17:41
?925次閱讀
奧特曼,作為科技界的先驅(qū)者,近日攜手OpenAI發(fā)布了其首個(gè)視頻生成模型——Sora。這一創(chuàng)新模型完美繼承了DALL·E 3的卓越畫(huà)質(zhì)和強(qiáng)大指令遵循能力,能夠生成長(zhǎng)達(dá)一分鐘的高清視頻。
發(fā)表于 02-18 10:06
?962次閱讀
評(píng)論