0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

三維目標(biāo)檢測失效的情況下如何實(shí)現(xiàn)避障

CVer ? 來源:CVer ? 作者:CVer ? 2022-10-10 16:53 ? 次閱讀

本文是對我們CoRL 2022被接收的文章SurroundDepth: Entangling Surrounding Views for Self-Supervised Multi-Camera Depth Estimation的介紹。在這個(gè)工作中,我們利用transformer融合環(huán)視的多視角特征,提升模型性能,并提出SfM預(yù)訓(xùn)練和聯(lián)合位姿估計(jì)來實(shí)現(xiàn)真實(shí)尺度的深度圖。很榮幸地,我們的文章被CoRL 2022收錄,目前項(xiàng)目代碼已開源,歡迎大家試用。

概述

近年來隨著人工智能的發(fā)展,自動(dòng)駕駛技術(shù)飛速發(fā)展。以特斯拉為首的視覺派拋棄激光雷達(dá),只依賴于圖像進(jìn)行三維感知。作為純視覺感知方案的基石任務(wù),基于圖像的三維目標(biāo)檢測天然存在長尾問題。模型很可能會(huì)對數(shù)據(jù)集中沒見過的類別物體漏檢,而這種漏檢往往是致命的。重建出整個(gè)三維場景可以作為一種安全冗余,在三維目標(biāo)檢測失效的情況下依然可以實(shí)現(xiàn)避障。

作為最簡單直接且不需要點(diǎn)云標(biāo)簽的三維場景重建方式,在這個(gè)工作中我們重點(diǎn)研究自監(jiān)督環(huán)視深度估計(jì)這個(gè)任務(wù)。自監(jiān)督深度估計(jì)是一個(gè)很經(jīng)典的領(lǐng)域,早在17年就有相關(guān)的工作,但大部分工作都是基于單目圖像的。與單目圖像不同,環(huán)視圖像的各個(gè)視角之間存在overlap,因此可以將多個(gè)視角之間的信息進(jìn)行融合得到更準(zhǔn)確的深度圖預(yù)測。除此之外,自監(jiān)督單目深度估計(jì)存在尺度歧義(scale-ambiguity)問題,換句話說,預(yù)測出的深度圖會(huì)與深度真值差一個(gè)尺度系數(shù)。這是因?yàn)槿绻蛔撕蜕疃葓D同時(shí)乘以一個(gè)相同的尺度,會(huì)使得光度一致性誤差(photometric loss)相同。與單目深度估計(jì)不同,假設(shè)我們可以知道多個(gè)相機(jī)之間的外參,這些外參我們可以比較容易的通過標(biāo)定得到,外參中包含了世界真實(shí)尺度的信息,因此理論上我們應(yīng)該可以預(yù)測得到真實(shí)尺度的深度圖。

我們根據(jù)環(huán)視視覺的特點(diǎn)提出了SurroundDepth,方法的核心是通過融合環(huán)視多視角信息以自監(jiān)督的方式得到高精度且具有真實(shí)尺度的深度圖。我們設(shè)計(jì)了跨視角transformer以注意力機(jī)制的形式對多視角的特征進(jìn)行融合。為了恢復(fù)出真實(shí)尺度,我們在相鄰視角上利用SfM得到稀疏偽點(diǎn)云對網(wǎng)絡(luò)進(jìn)行預(yù)訓(xùn)練。之后我們提出聯(lián)合位姿估計(jì)去顯示地利用外參信息,對深度和位姿估計(jì)網(wǎng)絡(luò)進(jìn)行聯(lián)合訓(xùn)練。在DDAD和nuScenes數(shù)據(jù)集上的實(shí)驗(yàn)驗(yàn)證了我們的方法超過了基線方法,達(dá)到了當(dāng)前最佳性能。

方法

a82166a0-485c-11ed-a3b6-dac502259ad0.png

1) 跨視角Transformer (CVT)

a852d08c-485c-11ed-a3b6-dac502259ad0.png

2) SfM預(yù)訓(xùn)練

這一步的目的是為了挖掘外參包含的真實(shí)世界尺度信息。一個(gè)自然的做法是以外參作為位姿估計(jì)結(jié)果,在空域上利用photometric loss得到帶有真實(shí)尺度的深度圖。但環(huán)視圖像之間的overlap比較小,這會(huì)使得在訓(xùn)練開始階段,大部分的像素都會(huì)投影到overlap區(qū)域外,導(dǎo)致photometric loss無效,無法提供有效的真實(shí)尺度的監(jiān)督。為了解決這個(gè)問題,我們用SIFT描述子對相鄰視角的圖像提取correspondences,并利用三角化轉(zhuǎn)換成具有真實(shí)尺度的稀疏深度,并利用這些稀疏深度對深度估計(jì)網(wǎng)絡(luò)進(jìn)行預(yù)訓(xùn)練,使其可以預(yù)測帶有真實(shí)尺度的深度圖。但由于環(huán)視多視角之間的overlap較小,視角變化較大,因此描述子的準(zhǔn)確度和魯棒性有所降低。為了解決這個(gè)問題,我們首先預(yù)估出overlap區(qū)域,具體為每個(gè)視角圖像左右1/3部分的圖像,我們只在這些區(qū)域提取correspondences。進(jìn)一步地,我們利用對極約束篩掉噪點(diǎn):

a88478b2-485c-11ed-a3b6-dac502259ad0.png

a89bd5ca-485c-11ed-a3b6-dac502259ad0.png

3)聯(lián)合位姿估計(jì)

大部分深度估計(jì)方法用PoseNet估計(jì)時(shí)序上相鄰兩幀的位姿。拓展到環(huán)視深度估計(jì)上,一個(gè)直接的方法是對每個(gè)視角單獨(dú)預(yù)測位姿。但這種方法沒有利用視角之間的幾何變化關(guān)系,因此無法保證位姿之間的多視角一致性。為了解決這個(gè)問題,我們將位姿估計(jì)分解為兩塊。首先我們預(yù)測全局位姿,具體而言,我們將所有視角圖像送入PoseNet encoder,將特征平均之后再送入decoder:

a8b1cb6e-485c-11ed-a3b6-dac502259ad0.png

a8c3cd00-485c-11ed-a3b6-dac502259ad0.png

實(shí)驗(yàn)結(jié)果

我們在DDAD(Dense Depth for Automated Driving) [1]以及nuScenes [2]上均進(jìn)行了實(shí)驗(yàn),使用了與Monodepth2 [3]相同的backbone網(wǎng)絡(luò)(ImageNet pretrained ResNet34)與pose estimation網(wǎng)絡(luò)來構(gòu)建SurroundDepth。在兩個(gè)數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果如下:

a8da159c-485c-11ed-a3b6-dac502259ad0.jpg

其中,我們對比了兩種最先進(jìn)的單目深度估計(jì)方法(Monodepth2 [3] and PackNet-SfM [4])以及一種多相機(jī)深度估計(jì)方法FSM [5]。我們在相同的測試環(huán)境下對比了所有的方法,可以看出,SurroundDepth在兩個(gè)數(shù)據(jù)集上均取得了最好的性能。

此外,由于利用了環(huán)視相機(jī)之間的交互,SurroundDepth相比其他方法的一大優(yōu)勢在于可以取得絕對深度估計(jì)。針對絕對深度,我們在兩個(gè)數(shù)據(jù)集上進(jìn)行了相關(guān)實(shí)驗(yàn)??梢园l(fā)現(xiàn),僅僅利用spatial photometric loss無法使網(wǎng)絡(luò)學(xué)習(xí)到絕對深度。通過我們提出的SfM pretraining方法,網(wǎng)絡(luò)才能有效地預(yù)測絕對深度。

a8eaf89e-485c-11ed-a3b6-dac502259ad0.jpg

審核編輯:彭靜
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 三維
    +關(guān)注

    關(guān)注

    1

    文章

    489

    瀏覽量

    28923
  • 代碼
    +關(guān)注

    關(guān)注

    30

    文章

    4726

    瀏覽量

    68248
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1201

    瀏覽量

    24622

原文標(biāo)題:CoRL 2022 | 清華&天津大學(xué)提出SurroundDepth:自監(jiān)督環(huán)視深度估計(jì)網(wǎng)絡(luò)

文章出處:【微信號(hào):CVer,微信公眾號(hào):CVer】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    如何快速高效的完成汽車前蓋板的三維檢測?

    如何快速高效的完成汽車前蓋板的三維檢測?行業(yè)背景汽車的前蓋板在生產(chǎn)出來后往往因?yàn)楹附雍土慵恼`差難以裝配,檢測便成了生產(chǎn)和安裝兩個(gè)環(huán)節(jié)之間的重要步驟??s短檢測時(shí)間提高
    發(fā)表于 08-11 14:16

    廣西掃描服務(wù)三維檢測三維掃描儀

    檢測結(jié)果。無空間上的使用限制,手持式三維掃描儀的便攜性及易用性,使得操作人員可以自由靈活轉(zhuǎn)移在各個(gè)車間現(xiàn)場,在工件難以移動(dòng)的情況下完成檢測。關(guān)鍵詞:廣西掃描服務(wù)廣西
    發(fā)表于 08-29 14:42

    解讀機(jī)器人的幾大技術(shù)

    到妨礙其通行的靜態(tài)或動(dòng)態(tài)物體,然后按照一定的方法進(jìn)行有效,最終到達(dá)目標(biāo)點(diǎn)。實(shí)現(xiàn)與導(dǎo)航的必
    發(fā)表于 12-12 16:04

    三維立體成像X射線顯微鏡在元器件失效分析中的應(yīng)用

    、C-SAM、X射線檢查等等。近幾年,三維立體成像X射線顯微鏡(顯微CT)逐漸進(jìn)入電子元器件分析領(lǐng)域,推動(dòng)了電子元器件非破壞性分析技術(shù)的快速發(fā)展。擁有一臺(tái)顯微CT,就像擁有一雙“透視眼”,在無損狀態(tài)
    發(fā)表于 08-31 10:07

    Handyscan汽車三維掃描服務(wù)尺寸檢測的應(yīng)用

    `Handyscan汽車三維掃描服務(wù)尺寸檢測的應(yīng)用 汽車發(fā)動(dòng)機(jī)連桿是將活塞和曲軸連接起來,作為汽車發(fā)動(dòng)機(jī)關(guān)鍵傳動(dòng)機(jī)構(gòu)的一部分,將作用于活塞頂部的膨脹氣體壓力傳給曲軸,使活塞的往復(fù)直線運(yùn)動(dòng)可逆地轉(zhuǎn)
    發(fā)表于 08-04 16:07

    三維可視化的應(yīng)用和優(yōu)勢

    的整體態(tài)勢?! ”热缭O(shè)備在偏僻區(qū)域(海、深山、沙漠、分布全國各地等),可以實(shí)現(xiàn)無人檢測,無需消耗人力物力進(jìn)行檢測,通過三維數(shù)據(jù)的分析可以直
    發(fā)表于 12-02 11:52

    水上機(jī)器人三維實(shí)時(shí)算法研究

    水上機(jī)器人(Unmanned Surface Vehicle,USV)用于近海環(huán)境實(shí)時(shí)監(jiān)測、資源探測、海洋災(zāi)害預(yù)警和防治等多種用途。USV 必須在三維環(huán)境中進(jìn)行處理,所以本文在USV上布置兩層聲納來
    發(fā)表于 12-19 15:37 ?8次下載

    智能循跡小車設(shè)計(jì)與實(shí)現(xiàn)

    智能循跡小車設(shè)計(jì)與實(shí)現(xiàn)
    發(fā)表于 06-06 08:48 ?307次下載

    無人機(jī)智能

    操作,實(shí)現(xiàn)無人機(jī)自主駕駛的階段!  第階段,無人機(jī)能夠?qū)︼w行區(qū)域建立地圖模型然后規(guī)劃合理線路!這個(gè)地圖不能僅僅是機(jī)械平面模型,而應(yīng)該是一個(gè)能夠?qū)崟r(shí)更新的三維立體地圖!這將是目前無人機(jī)
    發(fā)表于 04-27 20:24 ?1129次閱讀

    三維數(shù)字化集成檢測系統(tǒng)實(shí)現(xiàn)關(guān)鍵技術(shù)分析

    如何實(shí)現(xiàn)真正的無圖化、無紙化的三維數(shù)字化集成檢測,是當(dāng)前制造業(yè)的一個(gè)重要發(fā)展方向,本文在三維數(shù)字化檢測規(guī)劃的基礎(chǔ)上,對
    發(fā)表于 11-30 11:11 ?10次下載
    <b class='flag-5'>三維</b>數(shù)字化集成<b class='flag-5'>檢測</b>系統(tǒng)<b class='flag-5'>實(shí)現(xiàn)</b>關(guān)鍵技術(shù)分析

    港中文和商湯研究員提出高效的三維點(diǎn)云目標(biāo)檢測?新框架

    與二圖像中會(huì)相互遮擋的物體不同,三維點(diǎn)云中的物體都是天然分離的,使得三維目標(biāo)內(nèi)部各個(gè)部分的相對位置可以精確獲取,這些方法將有效提高目標(biāo)
    的頭像 發(fā)表于 08-02 14:18 ?3467次閱讀
    港中文和商湯研究員提出高效的<b class='flag-5'>三維</b>點(diǎn)云<b class='flag-5'>目標(biāo)</b><b class='flag-5'>檢測</b>?新框架

    手持式三維掃描儀對工業(yè)三維檢測應(yīng)用鑄造模具沖壓模具三維掃描與檢測

    手持式三維掃描儀對工業(yè)三維檢測應(yīng)用 手持式三維掃描設(shè)備因其靈巧,便攜,高精度的特點(diǎn),不受工廠復(fù)雜環(huán)境的影響,既能滿足其檢測要求,又能極大的提
    發(fā)表于 04-20 09:38 ?1780次閱讀

    基于激光雷達(dá)點(diǎn)云的三維目標(biāo)檢測算法

    文中提出了一種基于激光雷達(dá)點(diǎn)云的三維目標(biāo)檢測算法 Voxeircnn( Voxelization Region-based Convolutional Neural Networks),該算
    發(fā)表于 05-08 16:35 ?45次下載

    基于多視角融合的夜間無人車三維目標(biāo)檢測

    基于多視角融合的夜間無人車三維目標(biāo)檢測 來源:《應(yīng)用光學(xué)》,作者王宇嵐等 摘 要:為了提高無人車在夜間情況下對周圍環(huán)境的物體識(shí)別能力,提出一種基于多視角通道融合網(wǎng)絡(luò)的無人車夜間
    發(fā)表于 01-23 15:15 ?794次閱讀

    智慧城市_實(shí)景三維|物業(yè)樓三維掃描案例分享_泰來三維

    三維激光掃描技術(shù)是近年來發(fā)展的新型測量方法,通過三維掃描獲取大量全面點(diǎn)云數(shù)據(jù),形成三維立體模型,實(shí)現(xiàn)快速掌握被測目標(biāo)信息。
    的頭像 發(fā)表于 05-16 13:56 ?991次閱讀
    智慧城市_實(shí)景<b class='flag-5'>三維</b>|物業(yè)樓<b class='flag-5'>三維</b>掃描案例分享_泰來<b class='flag-5'>三維</b>