0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深度預測模型推斷移動中的人的場景深度

電子工程師 ? 來源:YXQ ? 2019-05-27 11:23 ? 次閱讀

谷歌近日推出了在計算機視覺領(lǐng)域模擬重建人類視覺的新模型,與以往方法不同的是,新模型利用AI,通過普通Youtube視頻預測深度圖,可以在場景內(nèi)的攝像頭和人同時運動的復雜情況下生成自然視頻。

人類的視覺系統(tǒng)具有非凡的能力,可以從2D投影中理解3D世界。即使在包含多個移動物體的復雜環(huán)境中,人也能夠?qū)ξ矬w的幾何形狀和深度的排序進行可行的解釋。長期以來,計算機視覺領(lǐng)域都在研究如何通過2D圖像數(shù)據(jù)計算重建場景的幾何特征,來實現(xiàn)和人類類似的能力,但在許多情況下,仍然難以實現(xiàn)具備充分魯棒性的重建。

當攝像頭和場景中的物體都在自由移動時,是實現(xiàn)重建的最困難的情況。這種情況混淆了基于三角測量的傳統(tǒng)3D重建算法,該算法假設(shè)可以同時從至少兩個不同的觀察點觀察到相同的對象。滿足這個假設(shè)需要一個多攝像頭陣列,或者單攝像頭移動,但場景目標本身是靜止狀態(tài)。因此,現(xiàn)有的大多數(shù)方法要么需要過濾掉移動的目標(將移動目標的深度固定為“零”),要么直接忽略移動目標(會導致深度值發(fā)生錯誤)。

左圖:傳統(tǒng)的立體設(shè)置假設(shè)至少有兩個觀察點在同時捕捉場景。右圖:我們考慮攝像頭和拍攝對象都在移動的情況。

我們通過基于深度學習的方法來解決這個基本問題,該方法可以從普通視頻中生成深度圖,場景中的攝像頭和主體目標都可以自由移動。模型從數(shù)據(jù)中學習人體姿勢和形狀的先驗知識,無需直接3D三角測量。盡管最近使用機器學習進行深度預測逐漸興起,但這項工作是第一個針對同時在攝像頭和目標都在運動的狀態(tài)下的基于學習的方法。

本研究中的觀察目標是人類,人類是增強現(xiàn)實和3D視頻效果的有趣目標。

我們的模型可以預測深度圖(右圖,離攝像頭越近,圖中越亮),場景中的人和攝像頭都在自由移動。

訓練數(shù)據(jù)

我們以監(jiān)督學習的方式訓練深度預測模型,該模型需要通過移動的攝像頭捕獲的自然場景視頻以及精確的深度圖。關(guān)鍵問題是從何處獲取此類數(shù)據(jù)。綜合生成數(shù)據(jù)需要對各種場景和自然人類行為進行逼真的建模和渲染,這是很困難的任務(wù)。

此外,針對這樣的數(shù)據(jù)訓練的模型可能難以推廣到真實場景中。另一種方法可能是用RGBD傳感器(如微軟的Kinect)記錄真實場景,但深度傳感器通常僅限于室內(nèi)環(huán)境,而且要面臨3D重建上的一系列問題。

我們利用現(xiàn)有的數(shù)據(jù)來進行監(jiān)督學習:即YouTube視頻,視頻中的人們通過自己定格在各種自然姿勢,模仿人體模特效果,而手持攝像機則在現(xiàn)場記錄。

因為整個場景是靜止的(只有攝像機在移動),所以基于三角測量的方法是行得通的,可以獲得包括其中人物在內(nèi)的整個場景的精確深度圖。我們收集了大約2000個這樣的視頻,涵蓋了各種逼真的場景,場景中的人按照不同的分組配置自然分布。

人們在攝像頭在場景中移動時模仿人體模特,我們將其作為訓練數(shù)據(jù)。我們使用傳統(tǒng)的MVS算法來估計深度,并在深度預測模型的訓練中將其用于監(jiān)督。

推斷移動中的人的場景深度

Mannequin挑戰(zhàn)視頻對移動中的攝像機和“定格”的人進行深度監(jiān)控,但我們的目標是利用移動的攝像頭和移動的人來處理視頻。我們需要構(gòu)建網(wǎng)絡(luò)輸入來彌補這一差距。

一種可能的方法是為視頻的每一幀都進行深度圖推斷(也就是對模型的輸入相當于單幀圖像)。雖然這種模型改進了用于深度預測的最先進的單幀方法,但是我們可以通過來自多幀的信息組合來進一步改善結(jié)果。比如運動視差,即兩個不同視點之間的靜態(tài)物體的明顯的相對運動,就對深度推斷提供了有力線索。為了充分利用這些信息,我們計算了視頻中每個輸入幀和另一幀之間的2D光流,用它表示兩幀之間的像素位移。

這些光流場取決于場景的深度和攝像頭的相對位置。但是,由于攝像頭位置是已知的,可以從流場中去除二者之間的依賴關(guān)系,由此生成初始深度圖。此初始深度僅對靜態(tài)場景區(qū)域有效。為了在測試時處理運動中的人,可以利用人工分割網(wǎng)絡(luò)來蓋住初始深度圖中的人類區(qū)域。這樣,我們網(wǎng)絡(luò)的完整輸入包括:RGB圖像、蓋住人類的區(qū)域,以及基于視差的遮蓋后的深度圖。

深度預測網(wǎng)絡(luò):模型的輸入包括RGB圖像(第t幀),人類區(qū)域的遮蓋和非人類區(qū)域的初始深度,根據(jù)輸入幀與另一個之間的運動視差(光流)計算視頻中的幀。模型輸出第t幀的完整深度圖。由MVS算法計算出的深度圖負責對訓練過程的監(jiān)督。

該網(wǎng)絡(luò)的作用是“修復”人與場景的深度值,并在其他地方細化深度值。因為人類的外形和大小特征幾乎一致,網(wǎng)絡(luò)可以通過觀察多個訓練樣例,在模型內(nèi)部學習這些先驗知識。經(jīng)過訓練后,模型就可以處理任意攝像頭和人體同時運動的視頻。

來看一段介紹視頻:

以下是基于視頻的深度預測模型結(jié)果的一些示例,并與最近基于最新學習的方法做了比較。

上圖:基于學習的單眼深度預測方法。 下圖:基于學習的立體方法(DeMoN)和我們的估計深度圖的結(jié)果。

使用深度圖處理3D視頻效果

我們預測的深度圖可用于產(chǎn)生一系列3D感知視頻效

使用估計深度圖產(chǎn)生的散景效果

我們的深度圖也可用于其他方面的應用,包括利用單眼視頻生成立體視頻,將合成CG對象插入場景,還可以在視頻的其他幀中顯示內(nèi)容的情況下進行場景區(qū)域的填充。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 谷歌
    +關(guān)注

    關(guān)注

    27

    文章

    6080

    瀏覽量

    104372
  • 深度學習
    +關(guān)注

    關(guān)注

    73

    文章

    5422

    瀏覽量

    120593

原文標題:Google AI:機器學習預測場景深度圖,模擬人眼更進一步

文章出處:【微信號:smartman163,微信公眾號:網(wǎng)易智能】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    深度學習模型有哪些應用場景

    深度學習模型作為人工智能領(lǐng)域的重要分支,已經(jīng)在多個應用場景展現(xiàn)出其巨大的潛力和價值。這些應用不僅改變了我們的日常生活,還推動了科技進步和產(chǎn)業(yè)升級。以下將詳細探討
    的頭像 發(fā)表于 07-16 18:25 ?716次閱讀

    深度神經(jīng)網(wǎng)絡(luò)模型量化的基本方法

    盡量保持模型的性能。這一技術(shù)通過降低模型參數(shù)的位數(shù)來顯著減小模型的大小,加速推理過程,并降低能耗,從而有助于將深度學習模型部署到邊緣計算設(shè)備
    的頭像 發(fā)表于 07-15 11:26 ?454次閱讀

    深度學習模型的過擬合與正則化

    深度學習的廣闊領(lǐng)域中,模型訓練的核心目標之一是實現(xiàn)對未知數(shù)據(jù)的準確預測。然而,在實際應用,我們經(jīng)常會遇到一個問題——過擬合(Overfitting)。過擬合是指
    的頭像 發(fā)表于 07-09 15:56 ?394次閱讀

    深度學習的時間序列分類方法

    的發(fā)展,基于深度學習的TSC方法逐漸展現(xiàn)出其強大的自動特征提取和分類能力。本文將從多個角度對深度學習在時間序列分類的應用進行綜述,探討常用的深度學習
    的頭像 發(fā)表于 07-09 15:54 ?377次閱讀

    深度學習模型權(quán)重

    深度學習這一充滿無限可能性的領(lǐng)域中,模型權(quán)重(Weights)作為其核心組成部分,扮演著至關(guān)重要的角色。它們不僅是模型學習的基石,更是模型智能的源泉。本文將從
    的頭像 發(fā)表于 07-04 11:49 ?419次閱讀

    深度學習的典型模型和訓練過程

    深度學習作為人工智能領(lǐng)域的一個重要分支,近年來在圖像識別、語音識別、自然語言處理等多個領(lǐng)域取得了顯著進展。其核心在于通過構(gòu)建復雜的神經(jīng)網(wǎng)絡(luò)模型,從大規(guī)模數(shù)據(jù)自動學習并提取特征,進而實現(xiàn)高效準確的
    的頭像 發(fā)表于 07-03 16:06 ?683次閱讀

    深度神經(jīng)網(wǎng)絡(luò)模型cnn的基本概念、結(jié)構(gòu)及原理

    ,其核心是構(gòu)建具有多層結(jié)構(gòu)的神經(jīng)網(wǎng)絡(luò)模型,以實現(xiàn)對復雜數(shù)據(jù)的高效表示和處理。在眾多深度學習模型,卷積神經(jīng)網(wǎng)絡(luò)(CNN)因其在圖像識別等領(lǐng)域的卓越性能而備受關(guān)注。CNN通過引入卷積層和
    的頭像 發(fā)表于 07-02 10:11 ?8785次閱讀

    深度學習模型訓練過程詳解

    深度學習模型訓練是一個復雜且關(guān)鍵的過程,它涉及大量的數(shù)據(jù)、計算資源和精心設(shè)計的算法。訓練一個深度學習模型,本質(zhì)上是通過優(yōu)化算法調(diào)整模型參數(shù),
    的頭像 發(fā)表于 07-01 16:13 ?492次閱讀

    深度學習的模型優(yōu)化與調(diào)試方法

    深度學習模型在訓練過程,往往會遇到各種問題和挑戰(zhàn),如過擬合、欠擬合、梯度消失或爆炸等。因此,對深度學習模型進行優(yōu)化與調(diào)試是確保其性能優(yōu)越的
    的頭像 發(fā)表于 07-01 11:41 ?458次閱讀

    【大語言模型:原理與工程實踐】揭開大語言模型的面紗

    復用和優(yōu)化效果。這些趨勢共同推動了大語言模型深度學習研究和應用的重要地位。數(shù)據(jù)效應指出大型模型需要更多數(shù)據(jù)進行訓練,以提高性能。其次,表示能力使得大語言
    發(fā)表于 05-04 23:55

    FPGA在深度學習應用或?qū)⑷〈鶪PU

    、筆記本電腦或機架式服務(wù)器上訓練神經(jīng)網(wǎng)絡(luò)時,這不是什么大問題。但是,許多部署深度學習模型的環(huán)境對 GPU 并不友好,比如自動駕駛汽車、工廠、機器人和許多智慧城市環(huán)境,在這些環(huán)境硬件必須忍受熱、灰塵、濕度
    發(fā)表于 03-21 15:19

    如何基于深度學習模型訓練實現(xiàn)工件切割點位置預測

    Hello大家好,今天給大家分享一下如何基于深度學習模型訓練實現(xiàn)工件切割點位置預測,主要是通過對YOLOv8姿態(tài)評估模型在自定義的數(shù)據(jù)集上訓練,生成一個工件切割分離點
    的頭像 發(fā)表于 12-22 11:07 ?608次閱讀
    如何基于<b class='flag-5'>深度</b>學習<b class='flag-5'>模型</b>訓練實現(xiàn)工件切割點位置<b class='flag-5'>預測</b>

    如何基于深度學習模型訓練實現(xiàn)圓檢測與圓心位置預測

    Hello大家好,今天給大家分享一下如何基于深度學習模型訓練實現(xiàn)圓檢測與圓心位置預測,主要是通過對YOLOv8姿態(tài)評估模型在自定義的數(shù)據(jù)集上訓練,生成一個自定義的圓檢測與圓心定位
    的頭像 發(fā)表于 12-21 10:50 ?1400次閱讀
    如何基于<b class='flag-5'>深度</b>學習<b class='flag-5'>模型</b>訓練實現(xiàn)圓檢測與圓心位置<b class='flag-5'>預測</b>

    貝葉斯深度學習介紹

    1 Introduction 基于深度學習的人工智能模型往往精于 “感知” 的任務(wù),然而光有感知是不夠的, “推理” 是更高階人工智能的重要組成部分。比方說醫(yī)生診斷,除了需要通過圖像和音頻等感知病人
    的頭像 發(fā)表于 11-03 10:51 ?524次閱讀
    貝葉斯<b class='flag-5'>深度</b>學習介紹

    深度學習在語音識別的應用及挑戰(zhàn)

    一、引言 隨著深度學習技術(shù)的快速發(fā)展,其在語音識別領(lǐng)域的應用也日益廣泛。深度學習技術(shù)可以有效地提高語音識別的精度和效率,并且被廣泛應用于各種應用場景。本文將探討深度學習在語音識別
    的頭像 發(fā)表于 10-10 18:14 ?749次閱讀