0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

介紹一種對(duì)標(biāo)Tesla Occupancy的開源3D語義場(chǎng)景補(bǔ)全?法

3D視覺工坊 ? 來源:曠視研究院 ? 2023-03-08 16:44 ? 次閱讀

一、背景

在 2022 年的 Tesla AI Day 上, Tesla 將 Bev(鳥瞰圖) 感知進(jìn)?步升級(jí),提出了基于 Occupancy Network 的感知?法。這種基于 Occupancy Grid Mapping 的表示?法,?叫體素(Voxel)占據(jù),在 3D 重建任務(wù)中已經(jīng)是一個(gè)“老熟人”了。

它將世界劃分成為?系列 3D ?格單元,然后定義哪個(gè)單元被占?,哪個(gè)單元是空閑的,并且每個(gè)占據(jù)單元同時(shí)也包含分類信息,?如路?、?輛、建筑物、樹?等。在?動(dòng)駕駛感知中,相?普通的 3D 檢測(cè)?法,這種基于體素的表示可以幫助預(yù)測(cè)更精細(xì)的異形物體。如下圖 Tesla Demo 中所展示的那樣,對(duì)于空間感知更精細(xì)。

3d581470-bbd6-11ed-bfe3-dac502259ad0.jpg

左圖:使用固定的矩形框標(biāo)記車輛;右圖:使用體素占據(jù)來精細(xì)表示車輛

在這種在線重建的?法中,?般使? SSC ( Semantic Scene Completion)任務(wù)評(píng)判預(yù)測(cè)的準(zhǔn)確性,即利?圖像、點(diǎn)云或者其他 3D 數(shù)據(jù)作為輸?,預(yù)測(cè)空間中的體素占據(jù)和類別信息,并與 GT 標(biāo)注相?較。在權(quán)威的?動(dòng)駕駛 Semantic-Kitti SSC 任務(wù)中,可以根據(jù)輸?分成純圖像和基于 3D (點(diǎn)云、 TSDF、體素等)的兩類不同的?法。

使?純圖像?案恢復(fù) 3D 結(jié)構(gòu)是?個(gè)?較困難的問題,曠視研究院提出了 OccDepth 的?法,將純圖像輸??法的精度?幅提升,獲得了視覺?法的 SOTA,其中 SC IOU 從 34.2 增?為 45.1, mIOU 從 11.1 增?為15.9。同時(shí)可視化結(jié)果表明 OccDepth 可以更好地重建出近處和遠(yuǎn)處的?何結(jié)構(gòu)。下?將帶?家介紹 OccDepth 具體的?法。

3d6dbac8-bbd6-11ed-bfe3-dac502259ad0.gif

二、任務(wù)困難和解決動(dòng)機(jī)

僅從視覺圖像估計(jì)場(chǎng)景中完整的?何結(jié)構(gòu)和語義信息,這是?項(xiàng)具有挑戰(zhàn)性的任務(wù),其中準(zhǔn)確的深度信息對(duì)于恢復(fù) 3D?何結(jié)構(gòu)是?關(guān)重要的。之前的很多?作,都是利?點(diǎn)云、 RGBD 、TSDF[1]等其他 2.5D 、3D 形式[2-8]作為輸?,來預(yù)測(cè)體素占據(jù),這也需要較昂貴的設(shè)備來采集 3D 信息?;诩儓D像的?案更便宜,同時(shí)也可以提供更為豐富且稠密場(chǎng)景表示, MonoScene[9]提出了純視覺的 Baseline。但相較于上述的 3D ?法,在?何結(jié)構(gòu)恢復(fù)??,表現(xiàn)有?定的差距。

本項(xiàng)工作借鑒了“人類使用雙眼能比單眼更好地感知3D世界中的深度信息”的思想,提出了名為 OccDepth 的語義場(chǎng)景補(bǔ)全?法。它分別顯式和隱式地利?圖像中含有的深度信息,以幫助恢復(fù)良好的 3D ?何結(jié)構(gòu)。在 SemanticKITTI 和 NYUv2 等數(shù)據(jù)集上的?量實(shí)驗(yàn)表明,與當(dāng)前基于純視覺的 SSC ?法相?,我們提出的 OccDepth ?法均達(dá)到了 SOTA,在 SemanticKITTI 上整體實(shí)現(xiàn)了+4.82% mIoU 的提升,其中+2.49% mIoU 的提升來?隱式的深度優(yōu)化,+2.33% mIoU 提升來?于顯式的深度蒸餾。在NYUv2 數(shù)據(jù)集上,與當(dāng)前基于純視覺的 SSC ?法相?, OccDepth 實(shí)現(xiàn)了+4.40% mIoU 的提升。甚?相?于所有 2.5D 、3D 的?法, OccDepth 仍然實(shí)現(xiàn)了 +1.70% mIoU 的提升。

三、具體方法

3e5e7e86-bbd6-11ed-bfe3-dac502259ad0.png

上圖是 OccDepth 的主要流程。3D 場(chǎng)景語義補(bǔ)全可以根據(jù)輸?的雙?圖像所推理出來,其中連接了?個(gè)雙?特征軟融合(Stereo-SFA )模塊?于隱式地將特征提升到 3D 空間,?個(gè)占?深度感知(OAD) 模塊?于顯式地增強(qiáng)深度預(yù)測(cè),后續(xù)接上 3D U-Net ?于提取?何和語義信息。其中雙?深度?絡(luò)僅在訓(xùn)練的時(shí)候使?,?蒸餾的?法幫助 OAD 模塊提升深度預(yù)測(cè)能?。

雙目特征軟融合模塊

3e71950c-bbd6-11ed-bfe3-dac502259ad0.png


pYYBAGQIS5eAd4BjAAI9peXdUek057.jpg

3e81adac-bbd6-11ed-bfe3-dac502259ad0.png

pYYBAGQIS6uAWfU7AABY6tg2mpg965.jpg

占用感知的深度蒸餾模塊

3e90fd48-bbd6-11ed-bfe3-dac502259ad0.png

poYBAGQIS7-ADJ4nAAJnOwNjQGI870.jpg

3ea11570-bbd6-11ed-bfe3-dac502259ad0.png

poYBAGQIS9SAQe6QAAFAFmh55fQ770.jpg

四、實(shí)驗(yàn)

指標(biāo)對(duì)比

3ebf5544-bbd6-11ed-bfe3-dac502259ad0.png

pYYBAGQIS-iAdk6DAAJdWQ8bkTo046.jpg

3ecffe08-bbd6-11ed-bfe3-dac502259ad0.png

在不同數(shù)據(jù)集上和 2.5D/3D 數(shù)據(jù)作為輸入的方法的對(duì)比表。OccDepth 的結(jié)果在一些室內(nèi)場(chǎng)景上和 2.5D/3D 的方法接近甚至有所超越,在室外場(chǎng)景上和某些 2.5D/3D 方法相媲美。"*" 表示結(jié)果引用自 MonoScene?!?”表示缺失結(jié)果。

我們還將 OccDepth 與原始 2.5D/3D 作為輸入的基礎(chǔ)方法進(jìn)行了比較,結(jié)果列在上表中。在 SemanticKITTI 數(shù)據(jù)集的隱藏測(cè)試集中,雖然 OccDepth 只使用水平視野比激光雷達(dá)( 82°vs. 180°)小得多的雙目圖像,但 OccDepth 取得了和使用 2.5D/3D 基礎(chǔ)方法可比的結(jié)果 。

這個(gè)結(jié)果表明 OccDepth 具有相對(duì)較好的補(bǔ)全能力。在 NYUv2 的測(cè)試集中,因?yàn)闆]有雙目圖像,我們的 OccDepth 將 RGB 圖像和深度圖生成虛擬雙目圖像作為輸入。結(jié)果顯示, OccDepth 取得了比所有 2.5D/3D 方法更好的 mIoU 和 IoU([+0.8 IoU,+1.7 mIoU])。

在提出的仿真數(shù)據(jù)集 SemanticTartanAir 的測(cè)試集中,我們?cè)谶@里使用深度真值作為這些 2.5D/3D 方法的輸入,所以 2.5D/3D 方法的準(zhǔn)確率非常高。另一方面,與 2.5D/3D 輸入方法相比, OccDepth 具有較為接近的 mIoU 結(jié)果,并且 OccDepth 沒有使用深度真值。與 純視覺推理的方法相比,OccDepth 具有更高的 IoU 和 mIoU ([+17.6 IoU, +10.9 mIoU])。

定性對(duì)比

3ee8a520-bbd6-11ed-bfe3-dac502259ad0.png

在 SemanticTartanAir 和SemanticKITTI 上的可視化結(jié)果。最左側(cè)是輸入的圖像,最右側(cè)是語義體素真值,中間為各種方法的可視化結(jié)果。這里顯示了 OccDepth 在兩個(gè)數(shù)據(jù)集中有較好結(jié)果場(chǎng)景。

在室內(nèi)場(chǎng)景 SemanticTartanAir 數(shù)據(jù)集上,雖然所有方法都正確獲得了正確的場(chǎng)景表示,但 OccDepth 對(duì)物體邊緣具有更好的還原效果,例如沙發(fā)(圖(a)的第 1 行)和天花板燈(圖(a)的第 2 行) 和地毯(圖(a)的第 3 行)。而在室外場(chǎng)景的 SemanticKITTI 數(shù)據(jù)集上,與基礎(chǔ)方法相比,OccDepth 的空間和語義預(yù)測(cè)結(jié)果明顯更好。例如,通過 OccDepth 可以實(shí)現(xiàn)路標(biāo)(圖(b)的第 1 行)、樹干(圖(b)的第 2 行)、車輛(圖(b)的第 2 行)和道路(圖(b)的第 3 行)的準(zhǔn)確識(shí)別。

消融實(shí)驗(yàn)

3f3406c8-bbd6-11ed-bfe3-dac502259ad0.png

對(duì)提出的模塊進(jìn)行消融實(shí)驗(yàn)。(a) Stereo-SFA 模塊的消融實(shí)驗(yàn)。(b) OAD 模塊中深度蒸餾數(shù)據(jù)源的消融實(shí)驗(yàn)。(c)OAD 模塊中深度蒸餾數(shù)據(jù)源的消融實(shí)驗(yàn)?!皐/o Depth”表示不使用深度蒸餾,Lidar depth 是指激光雷達(dá)點(diǎn)云生成的深度圖,Stereo Depth 是指 LEAStereo 模型生成的深度圖。以上實(shí)驗(yàn)都在 SemanticKITTI 的 08 號(hào)軌跡上進(jìn)行測(cè)試。(a),(b),(c)的消融實(shí)驗(yàn)結(jié)果證明了提出的每個(gè)模塊的有效性。

五、總結(jié)

在這項(xiàng)工作中,我們提出了一種有效利用深度信息的 3D 語義場(chǎng)景補(bǔ)全方法,我們將其命名為 OccDepth 。我們?cè)?SemanticKITTI(室外場(chǎng)景)和 NYUv2(室內(nèi)場(chǎng)景)數(shù)據(jù)集等公共數(shù)據(jù)集上訓(xùn)練了 OccDepth, 實(shí)驗(yàn)結(jié)果表明,本工作提出的 OccDepth 在室內(nèi)場(chǎng)景和室外場(chǎng)景上都可與某些以 2.5D/3D 數(shù)據(jù)作為輸入的方法相媲美。特別地是,OccDepth 在所有場(chǎng)景體素類別分類上都優(yōu)于當(dāng)前基于純視覺推理的方法。





審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • RGB
    RGB
    +關(guān)注

    關(guān)注

    4

    文章

    785

    瀏覽量

    58199
  • ssc
    ssc
    +關(guān)注

    關(guān)注

    0

    文章

    24

    瀏覽量

    11136
  • 激光雷達(dá)
    +關(guān)注

    關(guān)注

    967

    文章

    3863

    瀏覽量

    188734

原文標(biāo)題:OccDepth:對(duì)標(biāo) Tesla Occupancy 的開源 3D 語義場(chǎng)景補(bǔ)全?法

文章出處:【微信號(hào):3D視覺工坊,微信公眾號(hào):3D視覺工坊】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    HT for Web (Hightopo) 使用心得(4)- 3D 場(chǎng)景 Graph3dView 與 Obj 模型

    這里我們通過代碼建立個(gè) 3D 場(chǎng)景并添加個(gè) Obj 模型來介紹下 HT for Web 在
    的頭像 發(fā)表于 11-20 11:05 ?591次閱讀
    HT for Web (Hightopo) 使用心得(4)- <b class='flag-5'>3D</b> <b class='flag-5'>場(chǎng)景</b> Graph<b class='flag-5'>3</b>dView 與 Obj 模型

    什么叫3D微波技術(shù)

    當(dāng)3D電影已成為影院觀影的首選,當(dāng)3D打印已普及到雙耳無線藍(lán)牙耳機(jī),一種叫“3D微波”的技術(shù)也悄然而生。初次聽到“3D微波”,你可能會(huì)
    發(fā)表于 07-02 06:30

    建立元件3D圖形的方法介

    使用 Altium Desinger繪制的PCB封裝默認(rèn)情況下為平面,也就是將其切換到 3D 視圖時(shí),只能看到的是封裝的形狀,并不是元件的外觀,這里給大家介紹建立元件3D圖形的方法
    發(fā)表于 07-12 07:37

    一種非接觸式3D指紋識(shí)別系統(tǒng)的設(shè)計(jì)方案

    為什么要設(shè)計(jì)一種雙目視角的非接觸式3D指紋識(shí)別系統(tǒng) ? 與傳統(tǒng)指紋識(shí)別系統(tǒng)相比,3D指紋識(shí)別系統(tǒng)有什么優(yōu)勢(shì)? 怎樣去設(shè)計(jì)一種雙目視角的非接觸式3D
    發(fā)表于 04-19 07:10

    如何去實(shí)現(xiàn)一種基于codesys平臺(tái)的3d打印機(jī)設(shè)計(jì)?

    初始化應(yīng)該包括哪些內(nèi)容?如何去實(shí)現(xiàn)一種基于codesys平臺(tái)的3d打印機(jī)設(shè)計(jì)?
    發(fā)表于 07-05 08:02

    怎樣去設(shè)計(jì)一種基于3D打印機(jī)的Delta機(jī)械臂

    怎樣去設(shè)計(jì)一種基于3D打印機(jī)的Delta機(jī)械臂?有哪些操作步驟?
    發(fā)表于 10-11 08:17

    分享開源3D打印創(chuàng)新

    嵌入式頂級(jí)程序員 開源繼續(xù)推動(dòng)3D打印行業(yè)的快速創(chuàng)新。 如果您停下來想想,這很有道理-存在3D打印機(jī)可以做其他事情。 將這理念與免費(fèi)軟件
    發(fā)表于 12-21 07:27

    如何使用一種形式化方法的3D虛擬祭祀場(chǎng)景建模語言與環(huán)境

    針對(duì)現(xiàn)有三維(3D場(chǎng)景建模方法普遍存在著業(yè)務(wù)耦合度高,復(fù)雜場(chǎng)景對(duì)象屬性和特征描述能力不強(qiáng)、不豐富,不能很好地解決3D虛擬祭祀場(chǎng)景建模的問題
    發(fā)表于 01-02 14:13 ?9次下載
    如何使用<b class='flag-5'>一種</b>形式化方法的<b class='flag-5'>3D</b>虛擬祭祀<b class='flag-5'>場(chǎng)景</b>建模語言與環(huán)境

    帶你了解3D微波技術(shù)及其應(yīng)用場(chǎng)景

    3D電影已成為影院觀影的首選,當(dāng)3D打印已普及到雙耳無線藍(lán)牙耳機(jī),一種叫“3D微波”的技術(shù)也悄然而生。初次聽到3D微波”,你可能會(huì)
    發(fā)表于 07-24 10:26 ?0次下載
    帶你了解<b class='flag-5'>3D</b>微波技術(shù)及其應(yīng)用<b class='flag-5'>場(chǎng)景</b>

    什么是3D場(chǎng)景式消費(fèi),新興技術(shù)如何助力發(fā)展

    隨著5G、AI和3D等新興技術(shù)的發(fā)展,3D場(chǎng)景式消費(fèi)將作為一種全新的購(gòu)物體驗(yàn)進(jìn)入人們的日常生活中,從傳統(tǒng)的實(shí)體店到現(xiàn)在的電商平臺(tái),線下體驗(yàn)線上下單,以及全新的
    的頭像 發(fā)表于 07-08 11:50 ?2623次閱讀

    ThingJS平臺(tái)推出3D場(chǎng)景本地緩存技術(shù)

    腳本創(chuàng)建和操作,使用JSON數(shù)據(jù)格式。下面詳細(xì)介紹IndexedDB本地緩存技術(shù),作為一種瀏覽器數(shù)據(jù)存儲(chǔ)方案,對(duì)場(chǎng)景項(xiàng)目開發(fā)有極大的意義。 ① ?本地緩存技術(shù)提升用戶訪問體驗(yàn) ThingJS平臺(tái)支持在線開發(fā)面向物聯(lián)網(wǎng)的
    發(fā)表于 03-13 11:19 ?1716次閱讀

    VR全景看房3D場(chǎng)景的制作方法

    技術(shù)構(gòu)建的VR房地產(chǎn)展示VR全景看房3D場(chǎng)景可視化制作解決方案,創(chuàng)建3D虛擬現(xiàn)實(shí)世界體驗(yàn)的展示,運(yùn)用先進(jìn)技術(shù)生成的一種模擬環(huán)境多信息化融合、交互式的三維動(dòng)態(tài)
    發(fā)表于 04-23 10:21 ?9834次閱讀

    HarmonyOS 3D渲染引擎介紹

    隨著3D技術(shù)的應(yīng)用普及,越來越多的場(chǎng)景都能看到3D的身影,比如充電動(dòng)效、3D壁紙、游戲等等,給用戶帶來了更有趣、更豐富的體驗(yàn)。要滿足用戶的3D
    的頭像 發(fā)表于 12-23 09:49 ?4085次閱讀
    HarmonyOS <b class='flag-5'>3D</b>渲染引擎<b class='flag-5'>介紹</b>

    介紹一種高效的線云重建算法ELSR

    提出了一種高效的線云重建方法,稱為ELSR,其利用了城市場(chǎng)景中常見的場(chǎng)景平面和稀疏的3D點(diǎn)
    的頭像 發(fā)表于 03-29 18:14 ?794次閱讀

    介紹一種使用2D材料進(jìn)行3D集成的新方法

    美國(guó)賓夕法尼亞州立大學(xué)的研究人員展示了一種使用2D材料進(jìn)行3D集成的新穎方法。
    的頭像 發(fā)表于 01-13 11:37 ?894次閱讀