0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

NVIDIA 賦能 Cyanpuppets 打造實時 2D 視頻生成 3D 骨骼 AI 轉(zhuǎn)換模型

NVIDIA英偉達 ? 來源:未知 ? 2023-04-07 02:30 ? 次閱讀

青色木偶科技 Cyanpuppets致力于 AI 圖像算法技術(shù)和實時渲染平臺工具,是一家以卷積神經(jīng)網(wǎng)絡(luò)和深度神經(jīng)網(wǎng)絡(luò)算法為核心,打造自研 AI 模型架構(gòu)、實現(xiàn)虛擬與現(xiàn)實世界驅(qū)動協(xié)作的 AIGC 技術(shù)公司。其自研 CYAN.AI 平臺結(jié)合 NVIDIA GPU?算力,實現(xiàn)了 2D 視頻生成 3D 動作數(shù)據(jù),具備三維空間自由人體運動,能夠為全球用戶提供 AI 無穿戴動作捕捉技術(shù)、虛擬社交全身互動技術(shù)、3D 動畫制作工具與三維空間預(yù)演技術(shù)。

數(shù)字化身的低成本實時驅(qū)動

成為一大挑戰(zhàn)

游戲開發(fā)商 Epic Games 的首席執(zhí)行官 Tim Sweeney曾提到,“元宇宙將是一種前所未有的大規(guī)模參與式媒介,所有用戶都可以參與、創(chuàng)造、分享并從中獲利,而用戶的虛擬數(shù)字化身(Avatar)可以自由地在不同平臺之間穿梭”。隨著 AI 算力和計算機圖形渲染技術(shù)的蓬勃發(fā)展,人類對于自由地在不同數(shù)字平臺中穿梭,并隨時進入虛擬世界的數(shù)字化身 Avatar 提出了更高的要求:如何輕便快捷地讓數(shù)字化身真實地表達人類的動作意愿與情感,并將人類的動作實時遷移至虛擬化身上,成為關(guān)鍵性挑戰(zhàn)之一,細分為以下幾個具體的問題:

  • 復(fù)雜的技術(shù)流程

    從面部表情、手指動作到肢體動作,每個模塊往往由不同的技術(shù)方案構(gòu)成,數(shù)據(jù)的同步性與流程的一體化構(gòu)建面臨巨大的技術(shù)投入和人力成本挑戰(zhàn)。

  • 高昂的捕捉成本

    體驗與成本不可兼得,市面上效果較為一般的半身視覺動捕無法滿足 Avatar 的技術(shù)要求,而較為精準的光學(xué)捕捉與慣性捕捉,動輒數(shù)十萬的投入又使得 Avatar 成本居高不下。較高的成本讓普通民眾無法參與數(shù)字內(nèi)容體系的建設(shè),也無法享受技術(shù)時代帶來的新體驗。

  • 割裂的數(shù)字孤島

    虛擬化身的骨骼標準難以統(tǒng)一,不同的制作軟件、綁定系統(tǒng)和圖形渲染引擎會形成割裂的多個數(shù)字孤島,因此不僅每次虛擬化身穿梭到不同平臺帶來的資產(chǎn)遷移成本很高,而且難以形成一個整體性的虛擬化身世界。

  • 糟糕的捕捉體驗

    身上穿戴著復(fù)雜且繁重的動作捕捉傳感器,使得數(shù)字化身的使用體檢較為糟糕,長時間穿戴帶來的不適感與疲憊感也讓元宇宙成為了難以進入的宇宙。

NVIDIA GPU 助力 Cyanpuppets

打造 AI 驅(qū)動模型賦能Avatar發(fā)展

基于以上問題,Cyanpuppets 選擇了 NVIDIA 平臺多個產(chǎn)品提供支持,在多張NVIDIA GeForce RTX3080Ti的算力支持下,參考主流 AI 框架 TensorFlow、PyTorch、Caffe 等,對 COCO、ORGBD 等數(shù)據(jù)集進行長期訓(xùn)練。硬件終端上采用 ?GeForce RTX 3060?/3070/3080等系列硬件給軟件系統(tǒng)帶來了穩(wěn)定性保障和流暢體驗感。同時,使用Deep Learning Super Sampling(DLSS)這項 AI 深度學(xué)習(xí)技術(shù),為用戶提供極致的畫面渲染效果。

NVIDIA GPU賦能下,CYAN.AI 以 CNN 和 DNN 為底層核心訓(xùn)練了近萬小時的數(shù)據(jù)集,在同步的 2D 視頻流中提取人體動作的關(guān)鍵特征做人體姿態(tài)識別,追蹤人體超過 208 個關(guān)鍵點,結(jié)合動力學(xué)、生物力學(xué)生成人體運動的建模算法,一體化完成面部、表情與肢體共 208 點無穿戴、無標記的高精度捕捉。

CYAN.AI 構(gòu)建了一個全新的骨骼系統(tǒng),通過合成數(shù)據(jù)算法對主流的 Unreal Skeleton Asset、Daz、CC、Unity avatar 和 metahuman 的模型骨骼系統(tǒng)進行匹配映射,讓虛擬化身的全身驅(qū)動不再是一個個割裂的數(shù)字孤島。

在硬件優(yōu)化環(huán)節(jié),通過對 NVIDIA GPU 算力進行分布式的算力調(diào)配,僅需成本數(shù)百元的 RGB 攝像頭就能獲取視頻流,進行插值異構(gòu)即可實現(xiàn)更低延遲的數(shù)據(jù)信息吞吐與數(shù)據(jù)畫面合成。

結(jié)合 NVIDIA GPU 算力支持,算法模型以低至 0.1s 的延遲實現(xiàn)了超低延時的視覺動作捕捉,同時輔助動捕特征平滑算法、圖像識別多目協(xié)同算法、空間檢測、定位算法和重定向算法等多種算法,即使在復(fù)雜、狹小且充滿干擾物的使用環(huán)境中,CYAN.AI 依然可以穩(wěn)定、高效、高精度地動作捕捉遷移。

AIGC 行業(yè)是當前最受關(guān)注的人工智能領(lǐng)域之一,算力與算法帶來的生產(chǎn)力提升,讓每個個體都切實感受到新時代的來臨。傳統(tǒng)的行業(yè)紛紛擁抱 AI 生成科技進行產(chǎn)業(yè)升級,從文字生成圖片,圖片生成視頻再到視頻生成 3D,這是一個長久進化的趨勢,Cyanpuppets 正處于 2D 生成 3D 的關(guān)鍵環(huán)節(jié)。NVIDIA 提供的 GPU 解決方案,解決了深度學(xué)習(xí)和機器學(xué)習(xí)的技術(shù)難題,使得我們可以持續(xù)不斷地創(chuàng)新算法模型,拓寬應(yīng)用場景,并通過 CYAN.AI 平臺為全球不同行業(yè)、不同場景的用戶搭建虛擬現(xiàn)實協(xié)作的橋梁、虛擬化身的實時驅(qū)動方案。” 青色木偶科技 Cyanpuppets CEO 李宗興表示。

NVIDIA 初創(chuàng)加速計劃

青色木偶科技 Cyanpuppets是 NVIDIA 初創(chuàng)加速計劃 (NVIDIA Inception) 會員企業(yè)。NVIDIA 初創(chuàng)加速計劃為免費會員制,旨在培養(yǎng)顛覆行業(yè)格局的優(yōu)秀創(chuàng)業(yè)公司。該計劃聯(lián)合國內(nèi)外知名的風(fēng)投機構(gòu),創(chuàng)業(yè)孵化器,創(chuàng)業(yè)加速器,行業(yè)合作伙伴以及科技創(chuàng)業(yè)媒體等,打造創(chuàng)業(yè)加速生態(tài)系統(tǒng)。能夠提供產(chǎn)品折扣,技術(shù)支持,市場宣傳,融資對接,業(yè)務(wù)推薦等一系列服務(wù),加速創(chuàng)業(yè)公司的發(fā)展。

想獲得 NVIDIA 初創(chuàng)加速生態(tài)助力?掃描下方二維碼,僅需一分鐘填寫意向申請表單,獲得快速聯(lián)系。

a925a344-d4a8-11ed-bfe3-dac502259ad0.png


原文標題:NVIDIA 賦能 Cyanpuppets 打造實時 2D 視頻生成 3D 骨骼 AI 轉(zhuǎn)換模型

文章出處:【微信公眾號:NVIDIA英偉達】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 英偉達
    +關(guān)注

    關(guān)注

    22

    文章

    3637

    瀏覽量

    89868

原文標題:NVIDIA 賦能 Cyanpuppets 打造實時 2D 視頻生成 3D 骨骼 AI 轉(zhuǎn)換模型

文章出處:【微信號:NVIDIA_China,微信公眾號:NVIDIA英偉達】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    歡創(chuàng)播報 騰訊元寶首發(fā)3D生成應(yīng)用

    1 騰訊元寶首發(fā)3D生成應(yīng)用 只需一張照片,便能迅速打造獨一無二的3D角色。7月16日,騰訊旗下大模型應(yīng)用“騰訊元寶”上線了“
    的頭像 發(fā)表于 07-18 11:39 ?617次閱讀
    歡創(chuàng)播報 騰訊元寶首發(fā)<b class='flag-5'>3D</b><b class='flag-5'>生成</b>應(yīng)用

    Runway發(fā)布Gen-3 Alpha視頻生成模型

    專為電影和圖像內(nèi)容創(chuàng)作者提供生成AI工具的Runway公司近日宣布,其最新的Gen-3 Alpha視頻生成模型已經(jīng)正式問世。這款
    的頭像 發(fā)表于 06-19 09:25 ?446次閱讀

    NVIDIA生成AI研究實現(xiàn)在1秒內(nèi)生成3D形狀

    NVIDIA 研究人員使 LATTE3D (一款最新文本轉(zhuǎn) 3D 生成AI 模型)實現(xiàn)雙倍加
    的頭像 發(fā)表于 03-27 10:28 ?366次閱讀
    <b class='flag-5'>NVIDIA</b><b class='flag-5'>生成</b>式<b class='flag-5'>AI</b>研究實現(xiàn)在1秒內(nèi)<b class='flag-5'>生成</b><b class='flag-5'>3D</b>形狀

    Stability AI推出全新Stable Video 3D模型

    近日,Stability AI 推出了全新的 Stable Video 3D 模型,該模型以其獨特的功能吸引了眾多關(guān)注。此模型具備從單張圖像
    的頭像 發(fā)表于 03-22 10:30 ?651次閱讀

    Stability AI推出Stable Video 3D模型,可制作多視角3D視頻

    SV3D_u是Stable Video 3D的一個版本,僅需單幅圖片即可生成運動軌跡視頻,無須進行相機調(diào)整。擴充版本的SV3D_p加入了軌道
    的頭像 發(fā)表于 03-21 14:57 ?808次閱讀

    有了2D NAND,為什么要升級到3D呢?

    2D NAND和3D NAND都是非易失性存儲技術(shù)(NVM Non-VolatileMemory),屬于Memory(存儲器)的一種。
    的頭像 發(fā)表于 03-17 15:31 ?758次閱讀
    有了<b class='flag-5'>2D</b> NAND,為什么要升級到<b class='flag-5'>3D</b>呢?

    谷歌DeepMind推新AI模型Genie,生成2D游戲平臺

    據(jù)報道,谷歌公司的DeepMind團隊近期發(fā)布了AI模型Genie,此模型擁有多達110億個參數(shù),能夠依據(jù)用戶提供的圖片及提示詞創(chuàng)建出相當完整的2D游戲場景。
    的頭像 發(fā)表于 02-27 14:53 ?635次閱讀

    OpenAI發(fā)布文生視頻模型Sora,引領(lǐng)AI視頻生成新紀元

    在人工智能(AI)領(lǐng)域掀起新一輪革命浪潮的,正是OpenAI最新推出的文生視頻模型——Sora。這款被業(yè)界廣泛贊譽的模型,以其“逼真”和“富有想象力”的
    的頭像 發(fā)表于 02-19 11:03 ?784次閱讀

    高分工作!Uni3D3D基礎(chǔ)大模型,刷新多個SOTA!

    我們主要探索了3D視覺中scale up模型參數(shù)量和統(tǒng)一模型架構(gòu)的可能性。在NLP / 2D vision領(lǐng)域,scale up大模型(GP
    的頭像 發(fā)表于 01-30 15:56 ?645次閱讀
    高分工作!Uni<b class='flag-5'>3D</b>:<b class='flag-5'>3D</b>基礎(chǔ)大<b class='flag-5'>模型</b>,刷新多個SOTA!

    介紹一種使用2D材料進行3D集成的新方法

    美國賓夕法尼亞州立大學(xué)的研究人員展示了一種使用2D材料進行3D集成的新穎方法。
    的頭像 發(fā)表于 01-13 11:37 ?899次閱讀

    4DGen:基于動態(tài)3D高斯的可控4D生成新工作

    盡管3D視頻生成取得了飛速的發(fā)展,由于缺少高質(zhì)量的4D數(shù)據(jù)集,4D生成始終面臨著巨大的挑戰(zhàn)。
    的頭像 發(fā)表于 01-04 15:57 ?701次閱讀
    4DGen:基于動態(tài)<b class='flag-5'>3D</b>高斯的可控4<b class='flag-5'>D</b><b class='flag-5'>生成</b>新工作

    一文了解3D視覺和2D視覺的區(qū)別

    一文了解3D視覺和2D視覺的區(qū)別 3D視覺和2D視覺是兩種不同的視覺模式,其區(qū)別主要體現(xiàn)在立體感、深度感和逼真度上。本文將詳細闡述這些區(qū)別,并解釋為什么
    的頭像 發(fā)表于 12-25 11:15 ?2355次閱讀

    2D3D視覺技術(shù)的比較

    作為一個多年經(jīng)驗的機器視覺工程師,我將詳細介紹2D3D視覺技術(shù)的不同特點、應(yīng)用場景以及它們能夠解決的問題。在這個領(lǐng)域內(nèi),2D3D視覺技術(shù)是實現(xiàn)自動化和智能制造的關(guān)鍵技術(shù),它們在工業(yè)
    的頭像 發(fā)表于 12-21 09:19 ?909次閱讀

    3D人體生成模型HumanGaussian實現(xiàn)原理

    3D 生成領(lǐng)域,根據(jù)文本提示創(chuàng)建高質(zhì)量的 3D 人體外觀和幾何形狀對虛擬試穿、沉浸式遠程呈現(xiàn)等應(yīng)用有深遠的意義。傳統(tǒng)方法需要經(jīng)歷一系列人工制作的過程,如 3D 人體
    的頭像 發(fā)表于 12-20 16:37 ?1307次閱讀
    <b class='flag-5'>3D</b>人體<b class='flag-5'>生成</b><b class='flag-5'>模型</b>HumanGaussian實現(xiàn)原理

    阿迪達斯與 Covision Media 使用 AINVIDIA RTX 創(chuàng)建逼真的 3D 內(nèi)容

    Covision 的基于 AI3D 技術(shù)可幫助企業(yè)掃描數(shù)千種產(chǎn)品,為網(wǎng)站和移動應(yīng)用創(chuàng)建逼真的 3D 圖像、視頻和 AR 體驗。 將實體產(chǎn)品掃描成
    的頭像 發(fā)表于 11-28 18:45 ?545次閱讀
    阿迪達斯與 Covision Media 使用 <b class='flag-5'>AI</b> 和 <b class='flag-5'>NVIDIA</b> RTX 創(chuàng)建逼真的 <b class='flag-5'>3D</b> 內(nèi)容