0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

為什么基于學(xué)習(xí)的VO很難超過傳統(tǒng)VSLAM?

3D視覺工坊 ? 來源:3D視覺工坊 ? 作者:泡椒味的口香糖 ? 2022-11-10 09:48 ? 次閱讀

0. 筆者個(gè)人體會(huì)

深度學(xué)習(xí)在其他CV領(lǐng)域可以說已經(jīng)完全碾壓了傳統(tǒng)圖像算法,例如語義分割、目標(biāo)檢測、實(shí)例分割、全景分割。但是在VSLAM領(lǐng)域,似乎還是ORB-SLAM3、VINS-Fusion、DSO、SVO這些傳統(tǒng)SLAM算法占據(jù)領(lǐng)導(dǎo)地位。那么這背后的原因是什么?基于深度學(xué)習(xí)的VO目前已經(jīng)發(fā)展到了什么程度?

本文將帶領(lǐng)讀者探討基于學(xué)習(xí)的VO難以訓(xùn)練的真正原因,并分析幾個(gè)目前SOTA的學(xué)習(xí)VO,深入淺出理解基于學(xué)習(xí)的VO和傳統(tǒng)VSLAM算法之間的區(qū)別是什么。當(dāng)然筆者水平有限,如果有不同見解歡迎大家一起討論,共同學(xué)習(xí)!

1. 為什么基于學(xué)習(xí)的VO很難超過傳統(tǒng)VSLAM?

最早的基于學(xué)習(xí)的VO應(yīng)該是2017年ICRA論文“DeepVO: Towards End-to-End Visual Odometry with Deep Recurrent Convolutional Neural Networks”,這個(gè)架構(gòu)也非常直觀,就是將圖片序列利用CNN提取特征,然后借助RNN輸出位姿。之后它們團(tuán)隊(duì)也在2018年ICRA發(fā)表了“End-to-end, sequence-to-sequence probabilistic visual odometry through deep neural networks”,提出了DeepVO的改進(jìn)版本ESP-VO,但可以看出它們?cè)谝恍﹫鼍暗男Ч€是不太好的。

87d2d812-6084-11ed-8abf-dac502259ad0.png885a4ed2-6084-11ed-8abf-dac502259ad0.png8884291e-6084-11ed-8abf-dac502259ad0.png

我認(rèn)為基于學(xué)習(xí)的VO之所以失敗,主要有六點(diǎn)原因。

首先就是數(shù)據(jù)量的問題,深度學(xué)習(xí)是非常吃數(shù)據(jù)的。

模型越大,想讓網(wǎng)絡(luò)權(quán)重收斂所需的數(shù)據(jù)規(guī)模也就越大。近些年隨著Transformer的橫空出世,深度網(wǎng)絡(luò)的參數(shù)量幾乎是呈幾何倍數(shù)增長,動(dòng)不動(dòng)就出現(xiàn)上億參數(shù)的大模型。

但目前VSLAM的評(píng)估場景主要是KITTI (22個(gè)序列)、EuRoC (11個(gè)序列)和TUM (24個(gè)序列)這三個(gè)數(shù)據(jù)集。

即使是三個(gè)數(shù)據(jù)集加起來,也沒有ImageNet這一個(gè)數(shù)據(jù)集大。因此想使用深度學(xué)習(xí)直接定位建圖的話,模型根本喂不飽,訓(xùn)練就顯得非常困難。

88a2c950-6084-11ed-8abf-dac502259ad0.png

但僅僅如此嗎?

如果只是數(shù)據(jù)集規(guī)模的問題,那直接在車上放一個(gè)攝像頭,開車出去采個(gè)十幾萬張圖片不就可以輕松解決問題了嗎?或者說根本不需要自己采集數(shù)據(jù)集,直接使用其他CV領(lǐng)域的數(shù)據(jù)集,比如伯克利自動(dòng)駕駛BDD數(shù)據(jù)集里面有10萬個(gè)視頻序列,不一樣可以用嗎? 這里就需要說到另一個(gè)很少有人關(guān)注的點(diǎn),就是空間位姿中的主成分問題。

KITTI數(shù)據(jù)集是用無人車采集的,EuRoC是用無人機(jī)采集的,TUM是用手持相機(jī)采集的。這里不可避免得就涉及到六個(gè)自由度的分布問題,顯然KITTI數(shù)據(jù)集中的位姿基本都是繞Z軸的旋轉(zhuǎn)和水平方向的平移(顯然車不可能無緣無故翻滾和上升),EuRoC和TUM數(shù)據(jù)集中的位姿也是繞Z軸的旋轉(zhuǎn)和水平方向的平移占主導(dǎo)(這個(gè)也很容易理解,錄制視頻的時(shí)候也很難有特別復(fù)雜的雜技運(yùn)動(dòng))。

這是什么意思呢?

就是說,目前SLAM算法中常用的數(shù)據(jù)集,基本上只有兩個(gè)方向的運(yùn)動(dòng),其他4個(gè)自由度的運(yùn)動(dòng)很少或基本為0。這就導(dǎo)致基于學(xué)習(xí)的方法在訓(xùn)練過程中,只能學(xué)習(xí)到繞Z軸的旋轉(zhuǎn)和水平方向的平移這兩個(gè)方向的運(yùn)動(dòng),其他4個(gè)方向很難得到充分學(xué)習(xí)。不僅如此,其他4個(gè)方向還會(huì)帶來大量噪聲,導(dǎo)致本來學(xué)好的位姿也不準(zhǔn)了!

88cefc96-6084-11ed-8abf-dac502259ad0.png

第三點(diǎn)原因也相當(dāng)重要,就是圖像分辨率和內(nèi)參的問題!深度模型在訓(xùn)練之前,輸入數(shù)據(jù)會(huì)統(tǒng)一Resize為固定的大小,也就是說基于學(xué)習(xí)的VO在訓(xùn)練過程中學(xué)到的是這一固定分辨率下的位姿估計(jì)結(jié)果。

當(dāng)網(wǎng)絡(luò)換一個(gè)數(shù)據(jù)集進(jìn)行測試的時(shí)候,由于圖片分辨率變了,網(wǎng)絡(luò)沒學(xué)習(xí)過這種設(shè)置下的位姿,所以輸出結(jié)果非常受影響。但是傳統(tǒng)SLAM算法不會(huì)有這種問題,因?yàn)樗峭耆趯?duì)極幾何和PNP進(jìn)行求解的,即使換一個(gè)數(shù)據(jù)集,結(jié)果也不會(huì)受到太大影響。

88f9c642-6084-11ed-8abf-dac502259ad0.png

第四點(diǎn)原因,就是所有單目算法都會(huì)面臨的尺度模糊問題。單目算法的尺度不確定性在此不做過多贅述。需要注意的是,基于學(xué)習(xí)的VO在一個(gè)數(shù)據(jù)集上會(huì)學(xué)習(xí)到這個(gè)數(shù)據(jù)集所對(duì)應(yīng)的尺度,這個(gè)尺度還是一個(gè)相對(duì)尺度。當(dāng)我們希望將網(wǎng)絡(luò)遷移到另一個(gè)數(shù)據(jù)集時(shí),由于這個(gè)尺度變化,會(huì)導(dǎo)致網(wǎng)絡(luò)估計(jì)出的位姿非常不準(zhǔn)。

第五,基于學(xué)習(xí)的VO很難實(shí)現(xiàn)回環(huán)檢測。

熟悉ORB-SLAM3的同學(xué)知道,ORB-SLAM3中是存在短期、中期、長期、多地圖這四種數(shù)據(jù)關(guān)聯(lián)的。短期數(shù)據(jù)關(guān)聯(lián)對(duì)應(yīng)跟蹤線程,也是大多數(shù)VO使用的唯一數(shù)據(jù)關(guān)聯(lián)類型,一旦地圖元素從視野中消失,就會(huì)被丟棄,即使回到原來的地方,也會(huì)造成持續(xù)的位姿漂移。中期數(shù)據(jù)關(guān)聯(lián)對(duì)應(yīng)局部建圖,通過BA優(yōu)化可以約束具有共視關(guān)系的關(guān)鍵幀。長期數(shù)據(jù)關(guān)聯(lián)指回環(huán)和重定位,可以拉回大幅度的累計(jì)漂移。

多地圖數(shù)據(jù)關(guān)聯(lián)可以使用之前已經(jīng)建立的多塊地圖來實(shí)現(xiàn)地圖中的匹配和BA優(yōu)化。通過這四種數(shù)據(jù)關(guān)聯(lián)模型,ORB-SLAM3實(shí)現(xiàn)了非常強(qiáng)的全局一致性約束,使得整體的位姿估計(jì)非常準(zhǔn)。但是對(duì)于基于學(xué)習(xí)的VO來說,僅有幀間匹配,很難去實(shí)現(xiàn)回環(huán)這種長期數(shù)據(jù)關(guān)聯(lián),位姿漂移的問題非常嚴(yán)重。

最后一個(gè)問題就是,現(xiàn)有的深度學(xué)習(xí)方法非常吃計(jì)算資源。2022年了,基本上3090顯卡只能勉強(qiáng)達(dá)到深度學(xué)習(xí)的入門門檻,沒有幾塊A100的話,大模型想都不要想。目前效果最好DROID-SLAM甚至需要4塊3090才能達(dá)到實(shí)時(shí)運(yùn)行。但SLAM算法的最終目標(biāo)還是落地,要求的是能在低功耗的嵌入式設(shè)備上實(shí)時(shí)運(yùn)行。

目前大公司的SLAM算法都在做減法來盡可能縮減算力要求,這時(shí)候突然要求GPU加速就有點(diǎn)令人難以接受,畢竟誰也不可能真的給自動(dòng)駕駛汽車或者配送無人機(jī)裝4塊A100吧?

2. 傳統(tǒng)VSLAM就一定穩(wěn)定嗎?

我們所熟知的ORB-SLAM、VINS等算法在KITTI、EuRoC、TUM這些靜態(tài)場景中都已經(jīng)實(shí)現(xiàn)了非常好的效果。但問題是這些場景的規(guī)模還是太小了,很少有什么運(yùn)動(dòng)模糊的情況,并且也沒有什么動(dòng)態(tài)物體。即使它們之中有一些動(dòng)態(tài)序列,動(dòng)態(tài)物體所占的圖像范圍也沒有多大。

當(dāng)涉及到一些高動(dòng)態(tài)、無紋理、大范圍遮擋等挑戰(zhàn)性的場景時(shí),傳統(tǒng)的VSLAM算法很容易崩潰。如下圖所示,測試ORB-SLAM在挑戰(zhàn)性數(shù)據(jù)集Tartan Air中的運(yùn)行結(jié)果時(shí)發(fā)現(xiàn),ORB-SLAM平均只能跑完一半的序列,平均絕對(duì)軌跡誤差A(yù)TE甚至達(dá)到了27.67m,雙目比單目的效果好一些,但也沒有好太多。

89534384-6084-11ed-8abf-dac502259ad0.png8a573d30-6084-11ed-8abf-dac502259ad0.png

現(xiàn)有的傳統(tǒng)方法也基本都是加入點(diǎn)線面特征,或者引入IMU/激光雷達(dá)/輪速計(jì)/GNSS等多傳感器來輔助定位和建圖。

但現(xiàn)有算法也基本都是針對(duì)特定場景才能運(yùn)行的,針對(duì)這些挑戰(zhàn)性場景,始終都沒有一個(gè)統(tǒng)一且完善的解決方案。 但在深度學(xué)習(xí)領(lǐng)域,這些都不是問題!目前YOLO已經(jīng)出到了v7版本,可以輕輕松松檢測上千種不同目標(biāo),基于Transformer語義分割/實(shí)例分割的IoU也已經(jīng)不停漲點(diǎn)。

不用說檢測出一個(gè)動(dòng)態(tài)物體,就是多目標(biāo)跟蹤的算法現(xiàn)在也已經(jīng)非常成熟。 所以說,深度學(xué)習(xí)結(jié)合SLAM是一個(gè)非常有價(jià)值的大方向!雖然現(xiàn)有的深度學(xué)習(xí)方法也都有不同的問題,但相信隨著時(shí)間變化,這些問題都可以被解決。

3. TartanVO

TartanVO來源于2020年CoRL論文“TartanVO: A Generalizable Learning-based VO”,作者是卡內(nèi)基梅隆大學(xué)的王雯珊。

前面說到,ORB-SLAM在挑戰(zhàn)性數(shù)據(jù)集Tartan Air上運(yùn)行很容易崩潰,Tartan Air數(shù)據(jù)集也是王雯珊團(tuán)隊(duì)的工作。

Tartan Air是一個(gè)大規(guī)模、多場景、高動(dòng)態(tài)的仿真數(shù)據(jù)集,里面包含20種不同的環(huán)境、500+個(gè)軌跡以及40萬+幀圖像。雖然Tartan Air并不來源于真實(shí)傳感器,只是一個(gè)仿真場景,但其實(shí)內(nèi)部的圖像已經(jīng)足夠真實(shí)。

8aa37600-6084-11ed-8abf-dac502259ad0.png

我們沿著TartanVO作者的設(shè)計(jì)思路來進(jìn)行分析,首先TartanVO設(shè)計(jì)了一個(gè)簡單并傳統(tǒng)的網(wǎng)絡(luò)架構(gòu),思路也非常簡單,輸入是連續(xù)的兩幀圖像。網(wǎng)絡(luò)首先會(huì)提取特征并估計(jì)光流,之后利用Pose網(wǎng)絡(luò)估計(jì)出位姿。

8aef8e64-6084-11ed-8abf-dac502259ad0.png

但TartanVO的作者發(fā)現(xiàn),訓(xùn)練過程中的損失一直降不下來!通過分析發(fā)現(xiàn)這是由于平移位姿估計(jì)差引起的,那原因就顯而易見了,還是單目尺度不確定問題!為了解決這個(gè)問題,作者設(shè)計(jì)了對(duì)應(yīng)的尺度一致性損失,只估計(jì)相對(duì)尺度:

8b27a646-6084-11ed-8abf-dac502259ad0.png

8b4243b6-6084-11ed-8abf-dac502259ad0.png

同時(shí)TartanVO的另一個(gè)重要?jiǎng)?chuàng)新點(diǎn)在于,通用性非常強(qiáng)!前面說到,不同數(shù)據(jù)集的圖像分辨率和內(nèi)參不一致,這影響了網(wǎng)絡(luò)的泛化性能。

因此TartanVO又加入了內(nèi)參層,在訓(xùn)練過程中同時(shí)估計(jì)相機(jī)內(nèi)參矩陣。同時(shí)在訓(xùn)練過程中對(duì)Tartan Air數(shù)據(jù)集的圖像進(jìn)行隨機(jī)裁剪和縮放,以此來模擬不同的內(nèi)參。

8b71fafc-6084-11ed-8abf-dac502259ad0.png

定量結(jié)果也證明了網(wǎng)絡(luò)的有效性,雖然訓(xùn)練損失提高了(模型任務(wù)復(fù)雜了),但測試損失還是得到了明顯降低。

8bf25ba2-6084-11ed-8abf-dac502259ad0.png

下表是在KITTI數(shù)據(jù)集上的測試結(jié)果,注意TartanVO并沒有進(jìn)行Finetune,但是效果比其他基于學(xué)習(xí)的VO方法好。值得一提的是,TartanVO的平移精度很高,但是相較于ORB-SLAM的旋轉(zhuǎn)精度較低,這是因?yàn)镺RB-SLAM具有回環(huán)檢測模塊。

8c1aca1a-6084-11ed-8abf-dac502259ad0.png

4. 基于TartanVO的動(dòng)態(tài)稠密RGB-D SLAM

這篇論文是今年5月上傳到arXiv的,論文名為“Dynamic Dense RGB-D SLAM using Learning-based Visual Odometry”,同樣是卡內(nèi)基梅隆大學(xué)的研究成果。

這個(gè)網(wǎng)絡(luò)是基于TartanVO進(jìn)行的,相當(dāng)于TartanVO在動(dòng)態(tài)環(huán)境中的改進(jìn),輸出是沒有動(dòng)態(tài)對(duì)象的稠密全局地圖。

算法的主要思想是從兩個(gè)連續(xù)的RGB圖像中估計(jì)光流,并將其傳遞到視覺里程計(jì)中,以通過匹配點(diǎn)作為直接法來預(yù)測相機(jī)運(yùn)動(dòng)。然后通過利用光流來執(zhí)行動(dòng)態(tài)分割,經(jīng)過多次迭代后,移除動(dòng)態(tài)像素,這樣僅具有靜態(tài)像素的RGB-D圖像就被融合到全局地圖中。

不過不知為何,這篇論文沒有進(jìn)行定量評(píng)估,沒有和其他SLAM算法的一些ATE、RTE等參數(shù)的對(duì)比,只有一些定量對(duì)比,可能是工作還在進(jìn)一步優(yōu)化。

8c463db2-6084-11ed-8abf-dac502259ad0.png8c744612-6084-11ed-8abf-dac502259ad0.png

5. DytanVO

DytanVO算是目前最前沿的成果了,論文名“DytanVO: Joint Refinement of Visual Odometry and Motion Segmentation in Dynamic Environments”,同樣是卡內(nèi)基梅隆大學(xué)王雯珊團(tuán)隊(duì)的工作,該論文已經(jīng)提交到2023 ICRA。 DytanVO的整個(gè)網(wǎng)絡(luò)架構(gòu)還是基于TartanVO進(jìn)行優(yōu)化的。

DytanVO由從兩幅連續(xù)圖像中估計(jì)光流的匹配網(wǎng)絡(luò)、基于無動(dòng)態(tài)運(yùn)動(dòng)的光流估計(jì)位姿的位姿網(wǎng)絡(luò)和輸出動(dòng)態(tài)概率掩碼的運(yùn)動(dòng)分割網(wǎng)絡(luò)組成。

匹配網(wǎng)絡(luò)僅向前傳播一次,而位姿網(wǎng)絡(luò)和分割網(wǎng)絡(luò)被迭代以聯(lián)合優(yōu)化位姿估計(jì)和運(yùn)動(dòng)分割。停止迭代的標(biāo)準(zhǔn)很簡單,即兩個(gè)迭代之間旋轉(zhuǎn)和平移差異小于閾值,并且閾值不固定,而是預(yù)先確定一個(gè)衰減參數(shù),隨著時(shí)間的推移,經(jīng)驗(yàn)地降低輸入閾值,以防止在早期迭代中出現(xiàn)不準(zhǔn)確的掩碼,而在后期迭代中使用改進(jìn)的掩碼。

8d0128d4-6084-11ed-8abf-dac502259ad0.jpg

下圖所示是DytanVO的運(yùn)行示例,包含兩個(gè)輸入的圖像幀、估計(jì)的光流、運(yùn)動(dòng)分割以及在高動(dòng)態(tài)AirDOS-Shibuya數(shù)據(jù)集上的軌跡評(píng)估結(jié)果。結(jié)果顯示DytanVO精度超越TartanVO達(dá)到了最高,并且漂移量很小。

8d3312b8-6084-11ed-8abf-dac502259ad0.jpg

下表是在AirDOS-Shibuya的七個(gè)序列上,DytanVO與現(xiàn)有最先進(jìn)的VO算法進(jìn)行的定量對(duì)比結(jié)果。

七個(gè)序列分為三個(gè)難度等級(jí):大多數(shù)人站著不動(dòng),很少人在路上走來走去,穿越(容易)包含多個(gè)人類進(jìn)出相機(jī)的視野,而在穿越道路(困難)中,人類突然進(jìn)入相機(jī)的視野。

除了VO方法之外,作者還將DytanVO與能夠處理動(dòng)態(tài)場景的SLAM方法進(jìn)行了比較,包括DROID-SLAM、AirDOS、VDO-SLAM以及DynaSLAM。

8d5b70fa-6084-11ed-8abf-dac502259ad0.png

6. 總結(jié)

深度學(xué)習(xí)已經(jīng)廣泛應(yīng)用到了各個(gè)領(lǐng)域,但在SLAM領(lǐng)域卻沒有取得很好的效果。本文深入探討了為什么基于學(xué)習(xí)的VO效果不如傳統(tǒng)的SLAM算法,并介紹了三種基于學(xué)習(xí)的VO的算法原理。

總之,深度學(xué)習(xí)與SLAM結(jié)合是一個(gè)大趨勢,現(xiàn)階段無論是基于學(xué)習(xí)的VO還是傳統(tǒng)SLAM算法都有各自的問題,但兩者結(jié)合就可以解決很多困難。





審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • ESP
    ESP
    +關(guān)注

    關(guān)注

    0

    文章

    179

    瀏覽量

    33739
  • VSLAM算法
    +關(guān)注

    關(guān)注

    0

    文章

    5

    瀏覽量

    2225

原文標(biāo)題:基于學(xué)習(xí)的VO距離傳統(tǒng)VSLAM還有多遠(yuǎn)?

文章出處:【微信號(hào):3D視覺工坊,微信公眾號(hào):3D視覺工坊】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    大聯(lián)大世平集團(tuán)推出基于Intel技術(shù)的雙目VSLAM空間定位解決方案

    大聯(lián)大控股宣布,其旗下世平推出基于英特爾(Intel)Movidius Myriad 2的雙目VSLAM空間定位解決方案。
    發(fā)表于 12-05 16:17 ?1360次閱讀

    新人求教:學(xué)習(xí)電子很難就業(yè)嗎 ?以后發(fā)展如何?

    學(xué)習(xí)電子很難就業(yè)嗎 ????以后發(fā)展如何??????...
    發(fā)表于 05-22 10:26

    分享一款基于Intel技術(shù)的雙目VSLAM空間定位解決方案

    SLAM是什么?VSLAM技術(shù)框架主要包括哪些?VSLAM技術(shù)擁有哪些核心技術(shù)優(yōu)勢?
    發(fā)表于 07-09 07:29

    激光SLAM和視覺VSLAM的分析比較

    什么是激光SLAM?視覺VSLAM又是什么?激光SLAM和視覺VSLAM有哪些不同之處?
    發(fā)表于 11-10 07:16

    這個(gè)運(yùn)放Vo怎么算

    這個(gè)運(yùn)放Vo怎么算
    發(fā)表于 11-16 16:43

    詮視科技的VSLAM技術(shù)突破 看看CEO林瓊?cè)绾卧忈?/a>

    在移動(dòng)機(jī)器人領(lǐng)域,2018年最大的技術(shù)進(jìn)展莫過于VSLAM技術(shù)在該領(lǐng)域的應(yīng)用突破了,它將讓移動(dòng)機(jī)器人自主行駛有更廣闊的空間。對(duì)機(jī)器人企業(yè)而言,VSLAM是令人頭疼的事情,現(xiàn)如今有一家企業(yè)把它做好了,對(duì)其它企業(yè)而言,就省事多了。
    的頭像 發(fā)表于 03-02 10:09 ?5064次閱讀

    通過持續(xù)元學(xué)習(xí)解決傳統(tǒng)機(jī)器學(xué)習(xí)方式的致命不足

    傳統(tǒng)機(jī)器學(xué)習(xí)正在凸顯它的不足。為了解決此問題,伯克利大學(xué)人工智能實(shí)驗(yàn)室教授繼2017年提出元學(xué)習(xí)后,又提出在線元學(xué)習(xí)。不僅可以解決傳統(tǒng)
    的頭像 發(fā)表于 03-04 14:20 ?2009次閱讀

    VSLAM系統(tǒng)方法的各種特點(diǎn)

    近年來,基于視覺的傳感器在SLAM系統(tǒng)中顯示出顯著的性能、精度和效率提升。在這方面,視覺SLAM(VSLAM)方法是指使用相機(jī)進(jìn)行姿態(tài)估計(jì)和地圖生成的SLAM方法。
    的頭像 發(fā)表于 11-01 09:53 ?2254次閱讀

    研討會(huì)預(yù)告 | 在 Jetson 上使用 vSLAM 進(jìn)行 ROS 2 精準(zhǔn)定位

    庫執(zhí)行立體視覺同步定位和繪圖(VSLAM),并估計(jì)立體視覺慣性測距。 在首次 Isaac ROS 線上研討會(huì)上,您將學(xué)習(xí)到如何使用 Isaac ROS Visual SLAM 進(jìn)行測繪和機(jī)器人導(dǎo)航。 研討
    的頭像 發(fā)表于 11-10 11:00 ?858次閱讀

    VC-VO異質(zhì)顆粒的相演化促進(jìn)鋰硫電池中硫轉(zhuǎn)化反應(yīng)

    VC-VO異質(zhì)顆粒作為多硫化物固定劑和氧化還原反應(yīng)催化劑有效地增強(qiáng)了鋰硫電池的電化學(xué)性能。VC-VO異質(zhì)顆粒結(jié)合了VO的強(qiáng)吸附能力和VC的氧化還原活性。VC-VO異質(zhì)顆??梢酝瑫r(shí)實(shí)現(xiàn)對(duì)
    的頭像 發(fā)表于 11-14 15:07 ?1117次閱讀

    一文梳理缺陷檢測的深度學(xué)習(xí)傳統(tǒng)方法

    但由于缺陷多種多樣,傳統(tǒng)的機(jī)器視覺算法很難做到對(duì)缺陷特征完整的建模和遷移,所以越來越多的學(xué)者和工程人員開始將深度學(xué)習(xí)算法引入到缺陷檢測領(lǐng)域中。
    的頭像 發(fā)表于 02-13 15:39 ?1105次閱讀

    基于事件相機(jī)的vSLAM研究進(jìn)展

    vSLAM能夠通過視覺傳感器來獲取環(huán)境信息,以達(dá)到估計(jì)機(jī)器人位姿和周圍環(huán)境三維重建的目的。但是傳統(tǒng)的視覺傳感器受限于它的硬件而導(dǎo)致的低動(dòng)態(tài)感光范圍和運(yùn)動(dòng)中產(chǎn)生的動(dòng)態(tài)模糊,在一些復(fù)雜的場景下無法得到良好的結(jié)果,例如高速運(yùn)動(dòng)中的或者復(fù)雜的光照條件下的場景。
    發(fā)表于 05-09 15:49 ?455次閱讀
    基于事件相機(jī)的<b class='flag-5'>vSLAM</b>研究進(jìn)展

    基于事件相機(jī)的vSLAM研究進(jìn)展

    為了能讓基于事件相機(jī)的vSLAM在事件數(shù)據(jù)上實(shí)現(xiàn)位姿估計(jì)和三維重建,研究者設(shè)計(jì)出了多種多樣針對(duì)事件相機(jī)的數(shù)據(jù)關(guān)聯(lián)、位姿估計(jì)和三維重建的解決方案。我們將主流的算法分類為四種類別,分別為特征法、直接法、運(yùn)動(dòng)補(bǔ)償法和基于深度學(xué)習(xí)的方法。
    發(fā)表于 05-12 11:51 ?335次閱讀
    基于事件相機(jī)的<b class='flag-5'>vSLAM</b>研究進(jìn)展

    聯(lián)合學(xué)習(xí)傳統(tǒng)機(jī)器學(xué)習(xí)方法中的應(yīng)用

    聯(lián)合學(xué)習(xí)傳統(tǒng)機(jī)器學(xué)習(xí)方法中的應(yīng)用
    的頭像 發(fā)表于 07-05 16:30 ?677次閱讀
    聯(lián)合<b class='flag-5'>學(xué)習(xí)</b>在<b class='flag-5'>傳統(tǒng)</b>機(jī)器<b class='flag-5'>學(xué)習(xí)</b>方法中的應(yīng)用

    深度學(xué)習(xí)傳統(tǒng)機(jī)器學(xué)習(xí)的對(duì)比

    在人工智能的浪潮中,機(jī)器學(xué)習(xí)和深度學(xué)習(xí)無疑是兩大核心驅(qū)動(dòng)力。它們各自以其獨(dú)特的方式推動(dòng)著技術(shù)的進(jìn)步,為眾多領(lǐng)域帶來了革命性的變化。然而,盡管它們都屬于機(jī)器學(xué)習(xí)的范疇,但深度學(xué)習(xí)
    的頭像 發(fā)表于 07-01 11:40 ?617次閱讀