0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

動(dòng)態(tài)環(huán)境中基于神經(jīng)隱式表示的RGB-D SLAM

jf_pmFSk4VX ? 來(lái)源:GiantPandaCV ? 2024-01-17 10:39 ? 次閱讀

1. 原文摘要

神經(jīng)隱式表示已經(jīng)被探索用于增強(qiáng)視覺(jué)SLAM掩碼算法,特別是在提供高保真的密集地圖方面。現(xiàn)有的方法在靜態(tài)場(chǎng)景中表現(xiàn)出強(qiáng)大的魯棒性,但卻難以應(yīng)對(duì)移動(dòng)物體造成的干擾。在本文中,我們提出了NID-SLAM,它顯著地提高了神經(jīng)SLAM掩碼在動(dòng)態(tài)環(huán)境中的性能。我們提出了一種新的方法來(lái)增強(qiáng)語(yǔ)義掩碼中不準(zhǔn)確的區(qū)域,特別是在邊緣區(qū)域。利用深度圖像中存在的幾何信息,這種方法能夠準(zhǔn)確地移除動(dòng)態(tài)物體,從而降低了相機(jī)漂移的概率。此外,我們還引入了一種針對(duì)動(dòng)態(tài)場(chǎng)景的關(guān)鍵幀選擇策略,它提高了相機(jī)跟蹤對(duì)大尺度物體的魯棒性,并提高了建圖的效率。在公開(kāi)的RGB-D數(shù)據(jù)集上的實(shí)驗(yàn)表明,我們的方法在跟蹤精度和建圖質(zhì)量方面優(yōu)于競(jìng)爭(zhēng)的神經(jīng)SLAM方法。

8e955540-b4d8-11ee-8b88-92fbcf53809c.png

圖1. NID-SLAM在我們采集的大型動(dòng)態(tài)場(chǎng)景上的三維重建結(jié)果。

2. 方法提出

視覺(jué)同時(shí)定位與地圖建構(gòu)(SLAM)在各種應(yīng)用中發(fā)揮著關(guān)鍵作用,如機(jī)器人導(dǎo)航、增強(qiáng)現(xiàn)實(shí)(AR)和虛擬現(xiàn)實(shí)(VR)。視覺(jué)SLAM算法利用傳感器(如單目、立體和RGB-D相機(jī))收集的數(shù)據(jù)來(lái)估計(jì)先前未知環(huán)境中相機(jī)的姿態(tài),并逐步構(gòu)建周圍場(chǎng)景的地圖。在各種視覺(jué)傳感器中,RGB-D相機(jī)同時(shí)記錄顏色和深度數(shù)據(jù),為三維環(huán)境信息的獲取提供了更有效和精確的基礎(chǔ)。這增強(qiáng)了大多數(shù)SLAM算法的三維重建性能。

最近的方法已經(jīng)將神經(jīng)隱式表示引入到SLAM中。最典型的例子就是神經(jīng)輻射場(chǎng)(NeRF),它將場(chǎng)景顏色和體素密度編碼到神經(jīng)網(wǎng)絡(luò)的權(quán)重中,直接從數(shù)據(jù)中學(xué)習(xí)場(chǎng)景細(xì)節(jié)的高頻信息,極大地增強(qiáng)了建圖的平滑性和連續(xù)性。結(jié)合基于體積表示的渲染方法,通過(guò)訓(xùn)練,NeRF可以重新合成輸入圖像,并推廣到相鄰未見(jiàn)的視點(diǎn)。

但是,這些神經(jīng)SLAM算法是基于靜態(tài)環(huán)境的假設(shè),其中一些可以處理合成場(chǎng)景中的小動(dòng)態(tài)物體。在真實(shí)的動(dòng)態(tài)場(chǎng)景中,這些算法可能會(huì)由于動(dòng)態(tài)物體的存在而在稠密重建和相機(jī)跟蹤精度方面出現(xiàn)顯著的性能下降。這可能在很大程度上是由于動(dòng)態(tài)物體導(dǎo)致的數(shù)據(jù)關(guān)聯(lián)不正確,嚴(yán)重破壞了跟蹤過(guò)程中的姿態(tài)估計(jì)。此外,動(dòng)態(tài)物體的信息通常會(huì)合并到地圖中,妨礙其長(zhǎng)期適用性。

語(yǔ)義信息已經(jīng)在許多研究中被引入到動(dòng)態(tài)場(chǎng)景中的視覺(jué)SLAM算法中。其主要思想是將語(yǔ)義信息與幾何約束相結(jié)合以消除場(chǎng)景中的動(dòng)態(tài)物體。然而,一方面,由于場(chǎng)景中靜態(tài)信息的減少,這些算法中的地圖質(zhì)量和內(nèi)在聯(lián)系較差。另一方面,由于缺乏對(duì)未觀測(cè)區(qū)域的合理幾何預(yù)測(cè)能力,這些算法通常存在恢復(fù)背景中可觀的空洞。

為了解決這個(gè)問(wèn)題,我們提出了神經(jīng)隱式動(dòng)態(tài)SLAM(NID-SLAM)。我們整合精度提高的深度信息與語(yǔ)義分割以檢測(cè)和移除動(dòng)態(tài)物體,并通過(guò)將靜態(tài)地圖投影到當(dāng)前幀中以填補(bǔ)這些物體遮擋的背景。

8eaa5e7c-b4d8-11ee-8b88-92fbcf53809c.png

圖2. 系統(tǒng)概覽。1) 動(dòng)態(tài)物體移除:通過(guò)使用語(yǔ)義分割和掩碼修正,精確地消除RGB-D圖像中的動(dòng)態(tài)物體,然后徹底恢復(fù)被遮擋的背景。2) 跟蹤:通過(guò)最小化損失來(lái)優(yōu)化相機(jī)姿態(tài){R, t}。3) 建圖:采用基于掩碼的策略來(lái)選擇關(guān)鍵幀,用于優(yōu)化特征網(wǎng)格場(chǎng)景表示。4) 場(chǎng)景表示:通過(guò)表面聚焦的點(diǎn)采樣,實(shí)現(xiàn)預(yù)測(cè)的顏色和深度值的高效渲染。

3. 方法詳解

圖2展示了NID-SLAM的總體框架。給定RGB-D圖像流作為輸入,我們首先使用專門的動(dòng)態(tài)處理過(guò)程移除動(dòng)態(tài)物體。隨后,我們通過(guò)聯(lián)合優(yōu)化相機(jī)姿勢(shì)和神經(jīng)場(chǎng)景表示來(lái)完成跟蹤和建圖。利用語(yǔ)義先驗(yàn)和深度信息,消除動(dòng)態(tài)物體,并通過(guò)靜態(tài)地圖修復(fù)這些物體遮擋的背景。在每次建圖迭代中,選擇關(guān)鍵幀以優(yōu)化場(chǎng)景表示和相機(jī)姿態(tài)。渲染是通過(guò)對(duì)查看射線進(jìn)行采樣并在這些射線上各點(diǎn)處集成預(yù)測(cè)值來(lái)執(zhí)行的。

3.1 動(dòng)態(tài)物體移除

深度修正:由于深度相機(jī)的局限性,物體與相機(jī)之間距離增加時(shí)的深度估計(jì)精度會(huì)降低。存在顯著誤差的深度信息可能導(dǎo)致不正確的數(shù)據(jù)關(guān)聯(lián),破壞相機(jī)跟蹤的穩(wěn)定性。在高度動(dòng)態(tài)環(huán)境中,這些不準(zhǔn)確性變得更加明顯,增加相機(jī)漂移的概率。此外,由于深度信息中的錯(cuò)誤,構(gòu)建的地圖可能會(huì)出現(xiàn)分層現(xiàn)象,其中本應(yīng)位于相同深度的圖像塊在地圖上表示為不同深度。因此,我們檢測(cè)并刪除不準(zhǔn)確的深度信息。具體來(lái)說(shuō),我們計(jì)算深度圖的圖像梯度,并將這些梯度用作評(píng)估深度信息準(zhǔn)確性的指標(biāo)。當(dāng)圖像的水平或垂直梯度超過(guò)預(yù)定義閾值時(shí),說(shuō)明深度存在顯著變化,我們將梯度方向上后續(xù)像素點(diǎn)的深度設(shè)置為零,以減輕深度誤差。

基于深度的語(yǔ)義分割:為了檢測(cè)動(dòng)態(tài)物體,我們采用基于邊界框的網(wǎng)絡(luò)進(jìn)行輸入圖像的語(yǔ)義分割,在我們的實(shí)驗(yàn)中使用YOLO算法。該網(wǎng)絡(luò)以RGB原始圖像為輸入,并輸出圖像中潛在動(dòng)態(tài)或可移動(dòng)物體的二進(jìn)制掩碼。語(yǔ)義掩碼存在兩個(gè)主要缺點(diǎn)。首先,它們可能無(wú)法完全覆蓋動(dòng)態(tài)物體,有時(shí)會(huì)并入環(huán)境中的其他物體。其次,掩碼在邊界區(qū)域容易出錯(cuò)。因此,我們利用深度信息細(xì)化掩碼。對(duì)于原始掩碼的每個(gè)邊界點(diǎn),我們檢查以其為中心的五像素半徑區(qū)域,計(jì)算該區(qū)域內(nèi)掩碼中像素的深度值范圍。對(duì)于此區(qū)域內(nèi)的掩碼部分,我們計(jì)算所有像素的深度值范圍。對(duì)于此區(qū)域外掩碼的像素,其深度值在計(jì)算的范圍內(nèi)的像素被認(rèn)為是掩碼的一部分,并隨后被整合。

背景修復(fù):對(duì)于移除的動(dòng)態(tài)物體,我們使用從以前的視點(diǎn)獲得的靜態(tài)信息來(lái)修復(fù)被遮擋的背景,合成一個(gè)沒(méi)有動(dòng)態(tài)物體的逼真圖像。修復(fù)后的圖像包含更多的場(chǎng)景信息,使地圖的外觀更準(zhǔn)確,增強(qiáng)了相機(jī)跟蹤的穩(wěn)定性。利用先前幀和當(dāng)前幀的已知位置,我們將一系列先前關(guān)鍵幀投影到當(dāng)前幀的RGB和深度圖像的分割區(qū)域。由于這些區(qū)域要么尚未出現(xiàn)在場(chǎng)景中,要么已經(jīng)出現(xiàn)但沒(méi)有有效的深度信息,因此仍有一些區(qū)域保留未填充。圖1展示了我們自制數(shù)據(jù)集中用作輸入的三幀和最終重建的場(chǎng)景。可以注意到,動(dòng)態(tài)物體被成功刪除,大多數(shù)分割部分修復(fù)良好。

3.2 基于掩碼的關(guān)鍵幀選擇

對(duì)于跟蹤的輸入幀,我們選擇一組關(guān)鍵幀,表示為K。我們對(duì)關(guān)鍵幀的偏好傾向于:1) 動(dòng)態(tài)物體比率較低的幀;2)與前一關(guān)鍵幀重疊率較低的幀。我們使用 和 分別表示輸入幀I的兩個(gè)比率。當(dāng)這兩個(gè)比率之和小于閾值 時(shí),我們將當(dāng)前幀插入關(guān)鍵幀集。為了解決背景修復(fù)中的不準(zhǔn)確性和遺漏信息,我們減少關(guān)鍵幀中的動(dòng)態(tài)物體比例。這種方法確保整合更多可靠的信息,增強(qiáng)相機(jī)跟蹤的準(zhǔn)確性和穩(wěn)定性。同時(shí),關(guān)鍵幀之間的重疊更小可以使關(guān)鍵幀集包含更多場(chǎng)景信息。在靜態(tài)場(chǎng)景中,此策略默認(rèn)為基于重疊比的選擇。

從K中選擇關(guān)鍵幀以優(yōu)化場(chǎng)景表示時(shí),我們?cè)诨诟采w的和基于重疊的策略之間交替,旨在在優(yōu)化效率和質(zhì)量之間取得平衡。基于覆蓋的策略傾向于覆蓋最大場(chǎng)景區(qū)域的幀,確保場(chǎng)景邊緣區(qū)域的全面優(yōu)化。但是,這種方法通常需要大量迭代才能優(yōu)化相對(duì)較小的邊緣區(qū)域,降低了整體優(yōu)化效率。它還會(huì)導(dǎo)致重復(fù)的選擇結(jié)果,因?yàn)閹母采w面積是恒定的,覆蓋面積大的幀保持更高的優(yōu)先級(jí)?;谥丿B的策略涉及從與當(dāng)前幀視覺(jué)上重疊的關(guān)鍵幀中隨機(jī)選擇。為避免過(guò)度關(guān)注邊緣區(qū)域并反復(fù)優(yōu)化相同區(qū)域,我們首先使用基于覆蓋的策略優(yōu)化整個(gè)場(chǎng)景,然后多次使用基于重疊的策略,定期重復(fù)此過(guò)程。

3.3 場(chǎng)景表示和圖像渲染

wKgaomWnPkOAcrzOAAIgp9qF7-Y380.jpg

3.4 建圖和跟蹤

wKgZomWnPlmAELGRAADxH1tiVCM653.jpg

4. 實(shí)驗(yàn)

本方法在公開(kāi)的RGB-D數(shù)據(jù)集上進(jìn)行了實(shí)驗(yàn),包括TUM RGB-D數(shù)據(jù)集和Replica數(shù)據(jù)集,并與現(xiàn)有的方法進(jìn)行了比較。實(shí)驗(yàn)結(jié)果表明,該方法在動(dòng)態(tài)環(huán)境中的跟蹤精度和建圖質(zhì)量方面都優(yōu)于其他的神經(jīng)SLAM方法。

8f028516-b4d8-11ee-8b88-92fbcf53809c.png

表1. TUM RGB-D數(shù)據(jù)集上的相機(jī)跟蹤結(jié)果。評(píng)估指標(biāo)為ATE RMSE。 代表相應(yīng)文獻(xiàn)中沒(méi)有提到對(duì)應(yīng)的數(shù)值。

8f0f4efe-b4d8-11ee-8b88-92fbcf53809c.png

表2. TUM數(shù)據(jù)集上的平移RPE RMSE結(jié)果。

8f199350-b4d8-11ee-8b88-92fbcf53809c.png

表3. TUM數(shù)據(jù)集上的旋轉(zhuǎn)RPE RMSE結(jié)果。

8f33031c-b4d8-11ee-8b88-92fbcf53809c.png

圖3. TUM RGB-D數(shù)據(jù)集上的重建結(jié)果。紅框標(biāo)出有動(dòng)態(tài)物體的區(qū)域。

8f905486-b4d8-11ee-8b88-92fbcf53809c.png

圖4. Replica數(shù)據(jù)集上的重建結(jié)果。紅框標(biāo)出改進(jìn)的區(qū)域。

8fb0ea20-b4d8-11ee-8b88-92fbcf53809c.png

表4. Replica數(shù)據(jù)集上的重建結(jié)果(8個(gè)場(chǎng)景的平均值)。

8fc1266a-b4d8-11ee-8b88-92fbcf53809c.png

表5. 消融實(shí)驗(yàn)結(jié)果。

5. 結(jié)論

我們介紹了NID-SLAM,這是一種動(dòng)態(tài)RGB-D神經(jīng)SLAM方法。我們證明神經(jīng)SLAM能夠在動(dòng)態(tài)場(chǎng)景中實(shí)現(xiàn)高質(zhì)量的建圖和可信的孔填充。利用動(dòng)態(tài)物體移除,我們的方法實(shí)現(xiàn)了穩(wěn)定的相機(jī)跟蹤并創(chuàng)建可重復(fù)使用的靜態(tài)地圖。準(zhǔn)確獲得的無(wú)動(dòng)態(tài)物體圖像也可以在進(jìn)一步的應(yīng)用中使用,如機(jī)器人導(dǎo)航。






審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 機(jī)器人
    +關(guān)注

    關(guān)注

    210

    文章

    27838

    瀏覽量

    204583
  • RGB
    RGB
    +關(guān)注

    關(guān)注

    4

    文章

    785

    瀏覽量

    58204
  • 編解碼器
    +關(guān)注

    關(guān)注

    0

    文章

    234

    瀏覽量

    24133
  • SLAM
    +關(guān)注

    關(guān)注

    23

    文章

    405

    瀏覽量

    31710
  • MLP
    MLP
    +關(guān)注

    關(guān)注

    0

    文章

    57

    瀏覽量

    4183

原文標(biāo)題:NID-SLAM:動(dòng)態(tài)環(huán)境中基于神經(jīng)隱式表示的RGB-D SLAM

文章出處:【微信號(hào):GiantPandaCV,微信公眾號(hào):GiantPandaCV】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    基于動(dòng)態(tài)環(huán)境的魯棒BA和選擇性全局優(yōu)化的魯棒VI-SLAM框架

    視覺(jué)慣性里程計(jì)和SLAM算法廣泛應(yīng)用于各種領(lǐng)域,如服務(wù)機(jī)器人、無(wú)人機(jī)和自主車輛。大多數(shù)SLAM算法都是基于靜態(tài)環(huán)境假設(shè)。然而,在現(xiàn)實(shí)世界,存在各種
    發(fā)表于 09-14 16:22 ?907次閱讀

    2D解析

    《Fundamentals of Computer Graphics》翻譯(三):2D直線
    發(fā)表于 09-03 12:19

    如何去開(kāi)發(fā)一款基于RGB-D相機(jī)與機(jī)械臂的三維重建無(wú)序抓取系統(tǒng)

    基于RGB-D相機(jī)與機(jī)械臂的三維重建無(wú)序抓取系統(tǒng)有哪些關(guān)鍵技術(shù)?如何去開(kāi)發(fā)一款基于RGB-D相機(jī)與機(jī)械臂的三維重建無(wú)序抓取系統(tǒng)?基于RGB-D相機(jī)與機(jī)械臂的三維重建無(wú)序抓取系統(tǒng)是由哪些部分組成的?
    發(fā)表于 09-08 06:12

    基于RGB-D圖像物體識(shí)別方法

    圖像塊間匹配核函數(shù)基礎(chǔ)上,應(yīng)用核主成分分析法提取RGB-D圖像的3D形狀、尺寸、邊緣、顏色等多個(gè)互補(bǔ)性核描述子;然后,分別對(duì)它們進(jìn)行LLC編碼及空間池化處理以形成相應(yīng)的圖像編碼向量;最后,把這些圖像編碼向量融合成具有魯棒性、區(qū)分性的圖像
    發(fā)表于 12-07 10:22 ?1次下載
    基于<b class='flag-5'>RGB-D</b>圖像物體識(shí)別方法

    RGB-D圖像是什么

    RGB-D圖像其實(shí)是兩幅圖像。
    的頭像 發(fā)表于 11-01 11:46 ?1.8w次閱讀

    結(jié)合背景與前景的RGB-D圖像顯著性檢測(cè)模型

    RGB-D圖像顯著性檢測(cè)是指在傳統(tǒng)的2D圖像附加深度信息從而提取顯著對(duì)象,但是現(xiàn)有的顯著性檢測(cè)模型,大多數(shù)只關(guān)注顯著物體本身,卻忽略了背景信息。因此,提岀了一個(gè)新穎的昰著性檢測(cè)模型,將深度信息同時(shí)
    發(fā)表于 04-13 11:31 ?0次下載
    結(jié)合背景與前景的<b class='flag-5'>RGB-D</b>圖像顯著性檢測(cè)模型

    基于UWB、里程計(jì)和RGB-D融合的室內(nèi)定位方法

    的思想,僅消耗極少部分的計(jì)算資源就可以將各個(gè)傳感器融合起來(lái),提高了系統(tǒng)精度。實(shí)驗(yàn)結(jié)果表明,該方法可以將定位誤差抑制在10cm以內(nèi)將偏轉(zhuǎn)角誤差抑制在1以內(nèi),徹底解決單一RGB-D攝像頭SLAM時(shí)跟蹤失敗的問(wèn)題。
    發(fā)表于 04-25 14:47 ?14次下載
    基于UWB、里程計(jì)和<b class='flag-5'>RGB-D</b>融合的室內(nèi)定位方法

    用于SLAM神經(jīng)隱含可擴(kuò)展編碼

    我們提出了NICE-SLAM,一個(gè)密集的RGB-D SLAM系統(tǒng),它具有實(shí)時(shí)性、可擴(kuò)展性、預(yù)測(cè)性和對(duì)各種挑戰(zhàn)性場(chǎng)景的魯棒性。
    的頭像 發(fā)表于 01-30 11:19 ?632次閱讀

    用于快速高保真RGB-D表面重建的神經(jīng)特征網(wǎng)格優(yōu)化的GO-Surf

    我們提出了GO-Surf,一種直接的特征網(wǎng)格優(yōu)化方法,用于從RGB-D序列準(zhǔn)確和快速地重建表面。
    的頭像 發(fā)表于 03-17 16:35 ?645次閱讀

    基于RGB-D相機(jī)的三維重建和傳統(tǒng)SFM和SLAM算法有什么區(qū)別?

    輸入數(shù)據(jù)流不同。在基于RGB-D相機(jī)的三維重建中,輸入有深度信息和彩色信息,并且深度信息起主導(dǎo)作用,而在SLAM和SFM算法輸入的是主要是彩色信息,個(gè)別工作也有結(jié)合深度信息。
    發(fā)表于 03-23 12:28 ?1211次閱讀

    用于神經(jīng)場(chǎng)SLAM的矢量化對(duì)象建圖

    vMAP 是一種基于神經(jīng)場(chǎng)的對(duì)象級(jí)密集 SLAM 系統(tǒng),可根據(jù) RGB-D 輸入流實(shí)時(shí)自動(dòng)構(gòu)建對(duì)象級(jí)場(chǎng)景模型。
    的頭像 發(fā)表于 06-15 09:29 ?682次閱讀
    用于<b class='flag-5'>神經(jīng)</b>場(chǎng)<b class='flag-5'>SLAM</b>的矢量化對(duì)象建圖

    瞄準(zhǔn)AGV/AMR領(lǐng)域-維感科技發(fā)布高性價(jià)比RGB-D ToF相機(jī)DS86/87

    維感科技于近期正式對(duì)外發(fā)售極具性價(jià)比的3D ToF RGB-D深度相機(jī)新品DS86/87,零售價(jià)格分別為4,199元與4,999元。
    發(fā)表于 06-16 09:40 ?433次閱讀
    瞄準(zhǔn)AGV/AMR領(lǐng)域-維感科技發(fā)布高性價(jià)比<b class='flag-5'>RGB-D</b> ToF相機(jī)DS86/87

    一個(gè)動(dòng)態(tài)環(huán)境下的實(shí)時(shí)語(yǔ)義RGB-D SLAM系統(tǒng)

    大多數(shù)現(xiàn)有的視覺(jué)SLAM方法嚴(yán)重依賴于靜態(tài)世界假設(shè),在動(dòng)態(tài)環(huán)境很容易失效。本文提出了一個(gè)動(dòng)態(tài)環(huán)境
    的頭像 發(fā)表于 08-25 16:49 ?489次閱讀
    一個(gè)<b class='flag-5'>動(dòng)態(tài)</b><b class='flag-5'>環(huán)境</b>下的實(shí)時(shí)語(yǔ)義<b class='flag-5'>RGB-D</b> <b class='flag-5'>SLAM</b>系統(tǒng)

    一種基于RGB-D圖像序列的協(xié)同神經(jīng)同步定位與建圖(SLAM)系統(tǒng)

    提出了一種基于RGB-D圖像序列的協(xié)同神經(jīng)同步定位與建圖(SLAM)系統(tǒng),該系統(tǒng)由完整的前端和后端模塊組成,包括里程計(jì)、回環(huán)檢測(cè)、子圖融
    的頭像 發(fā)表于 11-29 10:35 ?468次閱讀
    一種基于<b class='flag-5'>RGB-D</b>圖像序列的協(xié)同<b class='flag-5'>隱</b><b class='flag-5'>式</b><b class='flag-5'>神經(jīng)</b>同步定位與建圖(<b class='flag-5'>SLAM</b>)系統(tǒng)

    常用的RGB-D SLAM解決方案

    BundleFusion是一種稠密的實(shí)時(shí)室內(nèi)場(chǎng)景三維重建算法框架。輸入為RGB-D相機(jī)采集的并且是對(duì)齊好的RGB圖像和深度圖的數(shù)據(jù)流。輸出為重建好的稠密三維場(chǎng)景模型。
    的頭像 發(fā)表于 04-16 09:37 ?619次閱讀
    常用的<b class='flag-5'>RGB-D</b> <b class='flag-5'>SLAM</b>解決方案