0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何使用深度相機實現(xiàn)視覺slam建圖和導(dǎo)航

新機器視覺 ? 來源:機器視覺智能檢測 ? 作者:機器視覺智能檢測 ? 2022-03-11 13:38 ? 次閱讀

一、 概述

1.深度相機

隨著機器視覺,自動駕駛等顛覆性的技術(shù)逐步發(fā)展,采用3D相機進行物體識別,行為識別,場景建模的相關(guān)應(yīng)用越來越多,可以說深度相機就是終端和機器人的眼睛,那么什么是深度相機呢,跟之前的普通相機(2D)想比較,又有哪些差別?深度相機又稱之為3D相機,顧名思義,就是通過該相機能檢測出拍攝空間的景深距離,這也是與普通攝像頭最大的區(qū)別。

普通的彩色相機拍攝到的圖片能看到相機視角內(nèi)的所有物體并記錄下來,但是其所記錄的數(shù)據(jù)不包含這些物體距離相機的距離。僅僅能通過圖像的語義分析來判斷哪些物體離我們比較遠,哪些比較近,但是并沒有確切的數(shù)據(jù)。而深度相機則恰恰解決了該問題,通過深度相機獲取到的數(shù)據(jù),我們能準確知道圖像中每個點離攝像頭距離,這樣加上該點在2D圖像中的(x,y)坐標,就能獲取圖像中每個點的三維空間坐標。通過三維坐標就能還原真實場景,實現(xiàn)場景建模等應(yīng)用。

深度相機也具備普通相機的一些不足,容易受視差影響:包括黑色物體(特征點少)、透明物體(光的穿透)、光滑物體(光反射太強)、圖像無紋理(特征點少)、過度曝光(特征點少)等。

445fb9a2-91ad-11ec-952b-dac502259ad0.jpg

2.常見的深度相機

目前市面上常有的深度相機方案有以下三種:

2.1 雙目視覺(Stereo)

雙目立體視覺(Binocular Stereo Vision)是機器視覺的一種重要形式,他是基于視差原理并利用成像設(shè)備從不同的位置獲取被測物體的兩幅圖像,通過計算圖像對應(yīng)點間的位置偏差,來獲取物體三維幾何信息的方法。

雙目相機的主要優(yōu)點有:

1)硬件要求低,成本也低。普通 CMOS 相機即可

2)室內(nèi)外都適用。只要光線合適,不要太昏暗

但是雙目的缺點也是非常明顯:

1)對環(huán)境光照非常敏感。光線變化導(dǎo)致圖像偏差大,進而會導(dǎo)致匹配失敗或精度低

2)不適用單調(diào)缺乏紋理的場景。雙目視覺根據(jù)視覺特征進行圖像匹配,沒有特征會導(dǎo)致匹配失敗

3)計算復(fù)雜度高,需要很高的計算資源。該方法是純視覺的方法,對算法要求高,實時性差

4)基線限制了測量范圍。測量范圍和基線(兩個攝像頭間距)成正比,導(dǎo)致無法小型化

代表公司

Leap Motion, ZED, 大疆

2.2 結(jié)構(gòu)光(Structured-light)

通過近紅外激光器,將具有一定結(jié)構(gòu)特征的光線投射到被拍攝物體上,再由專門的紅外攝像頭進行采集。這種具備一定結(jié)構(gòu)的光線,會因被攝物體的不同深度區(qū)域,而采集不同的圖像相位信息,然后通過運算單元將這種結(jié)構(gòu)的變化換算成深度信息,以此來獲得三維結(jié)構(gòu)。簡單來說就是,通過光學手段獲取被拍攝物體的三維結(jié)構(gòu),再將獲取到的信息進行更深入的應(yīng)用。通常采用特定波長的不可見的紅外激光作為光源,它發(fā)射出來的光經(jīng)過 一定的編碼投影在物體上,通過一定算法來計算返回的編碼圖案的畸變來得到物體的位置和深度信息。下圖是一個典型的結(jié)構(gòu)光相機的示意圖:

447ead9e-91ad-11ec-952b-dac502259ad0.jpg

4494a450-91ad-11ec-952b-dac502259ad0.jpg

結(jié)構(gòu)光(散斑)的優(yōu)點主要有:

1)方案成熟,相機基線可以做的比較小,方便小型化。

2)資源消耗較低,單幀 IR 圖就可計算出深度圖,功耗低。

3)主動光源,夜晚也可使用。

4)在一定范圍內(nèi)精度高,分辨率高,分辨率可達 1280×1024,幀率可達 60FPS。

散斑結(jié)構(gòu)光的缺點與結(jié)構(gòu)光類似:

1)容易受環(huán)境光干擾,室外體驗差。

2)隨檢測距離增加,精度會變差。

代表公司:

奧比中光,蘋果(Prime Sense),微軟 Kinect-1,英特爾 RealSense, Mantis Vision 等。

2.3 光飛行時間法(TOF)

顧名思義是測量光飛行時間來取得距離,具體而言就是通過給目標連續(xù)發(fā)射激光脈沖,然后用傳感器 接收從反射光線,通過探測光脈沖的飛行往返時間來得到確切的目標物距離。因為光速激光,通過直接測 光飛行時間實際不可行,一般通過檢測通過一定手段調(diào)制后的光波的相位偏移來實現(xiàn)。TOF 法根據(jù)調(diào)制方法的不同,一般可以分為兩種:脈沖調(diào)制(Pulsed Modulation)和連續(xù)波調(diào)制 (Continuous Wave Modulation)。脈沖調(diào)制需要非常高精度時鐘進行測量,且需要發(fā)出高頻高強度激光,目 前大多采用檢測相位偏移辦法來實現(xiàn) TOF 功能。簡單來說就是,發(fā)出一道經(jīng)過處理的光,碰到物體以后會反射回來,捕捉來回的時間,因為已知光速和調(diào)制光的波長,所以能快速準確計算出到物體的距離。

其原理示意圖:

44a7cd5a-91ad-11ec-952b-dac502259ad0.jpg

因為 TOF 并非基于特征匹配,這樣在測試距離變遠時,精度也不會下降很快,目前無人駕駛以及一些高端的消費類 Lidar 基本都是采用該方法來實現(xiàn)。

TOF 的優(yōu)點主要有:

1)檢測距離遠。在激光能量夠的情況下可達幾十米

2)受環(huán)境光干擾比較小

但是 TOF 也有一些顯而易見的問題:

1)對設(shè)備要求高,特別是時間測量模塊。

2)資源消耗大。該方案在檢測相位偏移時需要多次采樣積分,運算量大。

3)邊緣精度低。

4)限于資源消耗和濾波,幀率和分辨率都沒辦法做到較高。

代表公司:

微軟 Kinect-2,PMD,SoftKinect, 聯(lián)想 Phab。

傳感器技術(shù)不是很成熟,因此,分辨率較低,成本高,但由于其原理與另外兩種完全不同,實時性高,不需要額外增加計算資源,幾乎無算法開發(fā)工作量,是未來。

2.4 綜合對比

從上面三種主流的 3D 相機成像方案來看,各有優(yōu)劣,但是從實際應(yīng)用場景來看,在非無人駕駛域,結(jié)構(gòu)光,特別是散斑結(jié)構(gòu)光的用途是最廣泛。因為從精度,分辨率,還有應(yīng)用場景的范圍來看雙目和 TOF 都沒有辦法做到最大的平衡。而且對于結(jié)構(gòu)光容易受環(huán)境光干擾,特別是太陽光影響問題,鑒于此類相機都有紅外激光發(fā)射模塊,非常容易改造為主動雙目來彌補該問題。

結(jié)構(gòu)光與TOF的對比:

對比來看,結(jié)構(gòu)光技術(shù)功耗更小,技術(shù)更成熟,更適合靜態(tài)場景。而TOF方案在遠距離下噪聲較低,同時擁有更高的FPS,因此更適合動態(tài)場景。

目前,結(jié)構(gòu)光技術(shù)主要應(yīng)用于解鎖以及安全支付等方面,其應(yīng)用距離受限。而TOF技術(shù)主要用于智能機后置攝影,并在AR、VR等領(lǐng)域(包括3D拍照、體感游戲等)有一定的作用。

44bafdb2-91ad-11ec-952b-dac502259ad0.jpg

3D結(jié)構(gòu)光和TOF兩者其實各有優(yōu)劣勢。結(jié)構(gòu)光最大的優(yōu)勢是發(fā)展的較為成熟,成本比較低,劣勢是只適合中短距離使用。ToF優(yōu)勢是抗干擾性較好,視角較寬,缺陷是功耗高,造價貴,精度及深度圖分辨率較低。兩項技術(shù)各有側(cè)重點和適配使用場景。

結(jié)構(gòu)光相機硬件說明:

綜合考慮成本,本文將采用此類相機,在這里單獨說明下。

Kinect(xbox游戲機配件):

44d031b4-91ad-11ec-952b-dac502259ad0.png

樂視體感相機(樂視tv配件):

44e37990-91ad-11ec-952b-dac502259ad0.png

相機一般有三只眼睛,從左到右分別為:

投射紅外線pattern的IR Projector(左)

攝像頭Color Camera(中)

讀取反射紅外線的IR Camera(右)

Depth傳感器讀取左右兩邊投射的紅外線pattern,通過pattern的變形來取得Depth的信息。

二、 攝像頭通路打通

1.硬件連接

考慮成本,我們在上一次組裝的ROS+底盤套裝的基礎(chǔ)上,新增一個深度相機即可:

樂視體感三合一攝像頭 * 1

usb子母延長線 * 1

2.安裝驅(qū)動

# 安裝相關(guān)依賴 sudo apt install ros-$ROS_DISTRO-rgbd-launch ros-$ROS_DISTRO-libuvc-camera ros-$ROS_DISTRO-libuvc-ros ros-$ROS_DISTRO-camera-info-manager # ros-$ROS_DISTRO-libuvc # 安裝vslam相關(guān)依賴 sudo apt install ros-$ROS_DISTRO-rtabmap ros-$ROS_DISTRO-rtabmap-ros ros-$ROS_DISTRO-depthimage-to-laserscan # 克隆功能包源碼 cd ~/catkin_ws/src git clone git@github.com:orbbec/ros_astra_camera.git git clone git@github.com:yanjingang/robot_vslam.git # 創(chuàng)建udev規(guī)則 cd ros_astra_camera chmod +x ./scripts/create_udev_rules ./scripts/create_udev_rules # 配置并加載環(huán)境變量(機器人端執(zhí)行) cd ~/catkin_ws/src ./robot_vslam/script/setrgbd.sh astrapro source ~/.bashrc # export CAMERA_TYPE=astrapro # 編譯 cd ~/catkin_ws catkin_make --pkg astra_camera robot_vslam source ~/catkin_ws/devel/setup.bash

3.測試攝像頭

在完成第一步的功能包編譯之后,將攝像頭連接到機器人的主機

# 0.檢查攝像頭是否正常識別 ll /dev/astra* lrwxrwxrwx 1 root root 15 Jan 6 12:50 /dev/astra_pro -> bus/usb/001/014 lrwxrwxrwx 1 root root 15 Jan 6 12:50 /dev/astrauvc -> bus/usb/001/015 # 1.機器人端啟動攝像頭(啟動后會彈出幾個警告,不用管它,這是由于驅(qū)動中的一些參數(shù)攝像頭不支持) #roslaunch astra_camera astra.launch # Use Astra roslaunch robot_vslam astrapro.launch # 如果報Warning: USB events thread - failed to set priority. This might cause loss of data...,是因為沒有權(quán)限,執(zhí)行以下命令 #sudo -s #source /home/work/.bashrc #roslaunch robot_vslam astrapro.launch # 2.PC 端查看圖像(常用topic:深度:/camera/depth/image;彩色:/camera/rgb/image_raw/compressed;紅外:/camera/ir/image;注:ir圖像只能通過rviz顯示,在rqt_image_view 中顯示會是全黑,這和圖像格式有關(guān),并非設(shè)備問題) rviz 或 rqt_image_view

4.點云顯示

這一部分為了讓大家了解一下 rviz 中的各類插件的使用,將帶著大家一起搭建一個 rviz 顯示環(huán)境。(如果不想進行手動配置,也可以直接使用預(yù)先配置好的文件:/robot_vslam/rviz/astrapro.rviz)

首先我們添加一個點云顯示插件,點擊”Add”,在彈出的界面中雙擊” PointCloud2”:

44f8f22a-91ad-11ec-952b-dac502259ad0.png

展開左側(cè)PointCloud2選型卡,選擇Topic:

450e273a-91ad-11ec-952b-dac502259ad0.png

將 Fixed Frame 選擇為 camera_link:

4528da26-91ad-11ec-952b-dac502259ad0.png

此時界面中就會顯示出點云圖:

45447074-91ad-11ec-952b-dac502259ad0.png

在 Color Transformer 中選擇不同的顏色模式可以給點云按照不同的規(guī)則著色:

455a2432-91ad-11ec-952b-dac502259ad0.png

最后通過左上角的”File”選項卡中 Save Config As 可以將當前 rviz 配置保存到指定位置,下次打開 rviz 候可以通過 Open Config 直接打開配置文件避免再次手動配置界面。

4575333a-91ad-11ec-952b-dac502259ad0.png

5.轉(zhuǎn)激光雷達數(shù)據(jù)測試

# 啟動深度相機(機器人端) roslaunch robot_vslam camera.launch # 啟動深度圖到雷達數(shù)據(jù)的轉(zhuǎn)換 roslaunch robot_vslam depth_to_laser.launch # pc端可視化 rviz

配置一下界面就可以正常顯示雷達數(shù)據(jù)了

458d02a8-91ad-11ec-952b-dac502259ad0.png

這里可以注意到,相對于機器人的 TF 坐標位置,雷達數(shù)據(jù)并不是像我們常見的激光雷達數(shù)據(jù)是 360 度的,這是由于深度相機的視場角(即 FOV,我們這款相機水平 FOV 為 58.4 度,垂直FOV 為 45.5 度)是有限的,所以轉(zhuǎn)換出的雷達數(shù)據(jù)角度范圍和相機是水平 FOV是一致的,簡單理解就是,只能看到相機前方一定角度范圍內(nèi)的東西。

三、 視覺 vSLAM 建圖及導(dǎo)航

1.vSLAM建圖

機器人端啟動建圖:

# 啟動底盤base control roslaunch ros_arduino_python arduino.launch # 啟動camera roslaunch robot_vslam camera.launch # 啟動rtab vslam roslaunch robot_vslam rtabmap_rgbd.launch

在 rtabmap_rgbd.launch 啟動完成后,camera 節(jié)點和 rtabmap 的節(jié)點中會分別輸出以下信息(因為這里輸出的信息較多且有參考價值,所以我們沒有將所有的啟動文件寫成一個 launch 文件在同一個終端中輸出)

45a5e0c0-91ad-11ec-952b-dac502259ad0.png

45bb2c46-91ad-11ec-952b-dac502259ad0.png

PC端查看建圖過程:

# PC端打開rviz終端(在rviz終端中就可以看到所建立的平面地圖和立體地圖) roslaunch robot_vslam rtabmap_rviz.launch # 也可以使用rtabmap自帶的圖形化界面rtabmapviz在PC端來觀測建圖過程(不建議,帶寬占用100M以上) # roslaunch robot_vslam rtabmapviz.launch

45d06a48-91ad-11ec-952b-dac502259ad0.png

鍵盤控制機器人移動:

# 鍵盤控制 rosrun teleop_twist_keyboard teleop_twist_keyboard.py

我們建議是將機器人的直線運動速度不超過 0.2m/s,旋轉(zhuǎn)速度不超過 0.4rad/s 以保證建圖質(zhì)量。建圖過程和激光雷達建圖基本一致,遙控機器人在環(huán)境中遍歷一遍完成建圖。

地圖是默認保存在機器人端~/.ros/rtabmap.db文件中,由于這個文件包含了建圖過程中的圖片和特征點的信息,所以文件會比較大。

注意:啟動 roslaunch robot_vslam rtabmap_rgbd.launch 都會覆蓋掉 rtabmap.db 文件,如果需要保留上次建圖的結(jié)果,注意備份文件。

建圖完成后 rviz 中的地圖如下所示

45e3135a-91ad-11ec-952b-dac502259ad0.png

這里我們也可以修改點云顯示的顏色來實現(xiàn)其他效果,例如這樣

45fdb0f2-91ad-11ec-952b-dac502259ad0.png

46158452-91ad-11ec-952b-dac502259ad0.png

2.導(dǎo)航

機器人端打開四個終端,分別運行:

# 啟動底盤base control roslaunch ros_arduino_python arduino.launch # 啟動camera roslaunch robot_vslam camera.launch # 啟動rtab并自動定位 roslaunch robot_vslam rtabmap_rgbd.launch localization:=true # 啟動movebase(純前向視覺無法后退) roslaunch robot_vslam move_base.launch planner:=dwa move_forward_only:=true

這里 move_base 的 planner 參數(shù)可以選擇 dwa 和 teb,這部分在激光雷達導(dǎo)航部分已經(jīng)介紹過,這里就不再贅述,move_forward_only 參數(shù)是為了只允許機器人向前運動(視覺傳感器只有前向感知) 。啟動后檢查各個節(jié)點有無報錯,正常應(yīng)該是可以直接定位成功的。

# pc端rviz查看和控制 roslaunch robot_vslam rtabmap_rviz.launch

462c0d9e-91ad-11ec-952b-dac502259ad0.png

# pc端rtabmap查看(需手動下載全局地圖) roslaunch robot_vslam rtabmapviz.launch

4654ba50-91ad-11ec-952b-dac502259ad0.png

在 rtabmapviz 中點擊紅框中的按鈕同步地圖數(shù)據(jù)庫的信息,可能會花費一點時間,取決于你的局域網(wǎng)條件。如果左下位置中沒有出現(xiàn)圖像且圖像兩側(cè)處為黑色,則機器人尚未完成初始位置的確定。如果如下圖所示,則機器人已經(jīng)完成定位,可以開始導(dǎo)航無需執(zhí)行下面的步驟(通常機器人從紋理比較豐富且上次已經(jīng)到達過的位置啟動,都可以直接完成定位,這里文檔中是為了說明初始定位這一過程故意從一處幾乎沒有紋理的區(qū)域啟動使機器人不能完成初始定位)

如果沒有自動定位成功,則可以在 PC 端或機器人端啟動一個鍵盤控制節(jié)點:

rosrun teleop_twist_keyboard teleop_twist_keyboard.py

控制慢速移動機器人,直到左下角位置出現(xiàn)圖像且兩側(cè)為綠色表示定位成功

4670af62-91ad-11ec-952b-dac502259ad0.png

接下來就可以在地圖中指定目標點讓機器人導(dǎo)航過去了。

469751ee-91ad-11ec-952b-dac502259ad0.png

注意:rgbd 相機的視場角較小,且深度信息存在較大的盲區(qū),在導(dǎo)航中有可能會發(fā)生碰撞,可以通過調(diào)節(jié)增大 robot_vslam/param/MarsRobot/costmap_common_params.yaml中的inflation_radius 參數(shù)來改善,但是很難達到和激光雷達導(dǎo)航或rgbd相機+激光雷達的效果。

四、視覺+激光雷達建圖及導(dǎo)航

1.視覺+激光雷達建圖

這里操作過程和第三章節(jié)完全一致,只是部分啟動指令有差異,所以這里只列出啟動指令,不再描述操作過程。
機器人端打開三個終端,分別運行:

# 啟動激光雷達+base_control roslaunch robot_navigation robot_lidar.launch # 啟動深度攝像頭 roslaunch robot_vslam camera.launch # 啟動rgbd+lidar聯(lián)合建圖 roslaunch robot_vslam rtabmap_rgbd_lidar.launch # pc端查看 roslaunch robot_vslam rtabmap_rviz.launch # pc端控制移動 rosrun teleop_twist_keyboard teleop_twist_keyboard.py

我們建議是將機器人的直線運動速度不超過 0.2m/s,旋轉(zhuǎn)速度不超過 0.4rad/s 以保證建圖質(zhì)量建圖過程和激光雷達建圖基本一致,遙控機器人在環(huán)境中遍歷一遍完成建圖。這里可以看到,由于加入了360 度的激光雷達數(shù)據(jù),建圖在 2D 的地圖方面表現(xiàn)要更好一些。

46c8ba22-91ad-11ec-952b-dac502259ad0.png

2.視覺vSLAM +激光雷達導(dǎo)航

機器人端打開四個終端,分別運行:

# 啟動激光雷達+base_control roslaunch robot_navigation robot_lidar.launch # 啟動camera roslaunch robot_vslam camera.launch # 啟動rtab并自動定位 roslaunch robot_vslam rtabmap_rgbd_lidar.launch localization:=true # 啟動movebase(允許后退) roslaunch robot_vslam move_base.launch planner:=dwa move_forward_only:=false # pc端查看 roslaunch robot_vslam rtabmap_rviz.launch roslaunch robot_vslam rtabmapviz.launch

這里由于加入了 360 度的激光雷達,機器人具備了全向的感知能力,所以可以將 move_forward_only 參數(shù)設(shè)置為 false 允許機器人向后運動。

46ee8fb8-91ad-11ec-952b-dac502259ad0.png

今天帶大家學習了如何使用深度相機實現(xiàn)視覺slam建圖和導(dǎo)航,同時我們也嘗試了視覺+激光雷達的協(xié)同使用,機器人在障礙物感知和避障方面有了明顯改善,同時通過攝像頭我們也能更方便的實現(xiàn)遠程監(jiān)控和控制。下一次你想看到什么呢?歡迎留言,我將帶大家一起實現(xiàn)~!

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 激光雷達
    +關(guān)注

    關(guān)注

    967

    文章

    3871

    瀏覽量

    188837
  • 自動駕駛
    +關(guān)注

    關(guān)注

    781

    文章

    13471

    瀏覽量

    165350

原文標題:實戰(zhàn) | 用深度相機+激光雷達實現(xiàn)vSLAM建圖與導(dǎo)航

文章出處:【微信號:vision263com,微信公眾號:新機器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    什么是SLAM?視覺SLAM怎么實現(xiàn)

    上周的組會上,我給研一的萌新們講解什么是SLAM,為了能讓他們在沒有任何基礎(chǔ)的情況下大致聽懂,PPT只能多少字沒公式,這里我就把上周的組會匯報總結(jié)一下。 這次匯報的題目我定為“視覺SLAM
    的頭像 發(fā)表于 08-21 10:02 ?9599次閱讀
    什么是<b class='flag-5'>SLAM</b>?<b class='flag-5'>視覺</b><b class='flag-5'>SLAM</b>怎么<b class='flag-5'>實現(xiàn)</b>?

    從基本原理到應(yīng)用的SLAM技術(shù)深度解析

    LSD-SLAM 即 Large-Scale Direct SLAM,兼容單目相機和雙目相機。LSD-SLAM是一種基于光流跟蹤的直接法
    發(fā)表于 02-26 09:41 ?8504次閱讀
    從基本原理到應(yīng)用的<b class='flag-5'>SLAM</b>技術(shù)<b class='flag-5'>深度</b>解析

    AGV激光雷達SLAM定位導(dǎo)航技術(shù)

    實現(xiàn)多AGV小車的協(xié)調(diào)控制?!  黾す饫走_在AGV小車中的使用  SLAM中可以進行環(huán)境信息感知的主要傳感器有激光雷達、攝像頭等。其中,基于激光雷達的AGV小車自主定位與的方法,
    發(fā)表于 11-09 15:59

    SLAM技術(shù)的應(yīng)用及發(fā)展現(xiàn)狀

    也將SLAM分為激光SLAM視覺SLAM。激光SLAM視覺
    發(fā)表于 12-06 10:25

    讓機器人完美SLAM 3.0到底是何方神圣?

    引擎,讓機器人在復(fù)雜、大面積的場景下也能輕松應(yīng)對,穩(wěn)定發(fā)揮,完成定位導(dǎo)航任務(wù)?!鹘y(tǒng)SLAMSLAM 3.0的
    發(fā)表于 01-21 10:57

    激光SLAM視覺SLAM有什么區(qū)別?

    在機器人運動控制系統(tǒng)架構(gòu)中,可分為最底層、中間通信層和決策層三大層面,最底層包含了機器人本身的電機驅(qū)動和控制部分,中間通信層是底層部分和決策層的通信通路,而決策層則是實現(xiàn)機器人的定位導(dǎo)航
    發(fā)表于 07-05 06:41

    在gazebo中構(gòu)建一個用于導(dǎo)航的虛擬環(huán)境

    完整任務(wù)內(nèi)容在gazebo中構(gòu)建一個用于導(dǎo)航的虛擬環(huán)境,可以使用Building Editor工具創(chuàng)建,也可以使用其他功能包中已有的虛擬環(huán)境;將前面作業(yè)完成的帶傳感器的移動機器人(小車)模型
    發(fā)表于 12-17 07:06

    如何實現(xiàn)基于RK3399開發(fā)板的cartographer激光SLAM模塊的設(shè)計?

    如何實現(xiàn)基于RK3399開發(fā)板的cartographer激光SLAM模塊的設(shè)計?
    發(fā)表于 03-07 07:05

    單目視覺SLAM仿真系統(tǒng)的設(shè)計與實現(xiàn)

    實現(xiàn)單目視覺同時定位與(SLAM)仿真系統(tǒng),描述其設(shè)計過程。該系統(tǒng)工作性能良好,其SLAM
    發(fā)表于 04-15 08:50 ?82次下載

    視覺SLAM技術(shù)淺談

    ),地圖構(gòu)建精度約3cm;所以激光SLAM構(gòu)建的地圖精度一般來說比VSLAM高,且能直接用于定位導(dǎo)航視覺SLAM的地圖建立4.易用性激光SLAM
    的頭像 發(fā)表于 08-09 17:31 ?1560次閱讀

    視覺SLAM深度解讀

    ),地圖構(gòu)建精度約3cm;所以激光SLAM構(gòu)建的地圖精度一般來說比VSLAM高,且能直接用于定位導(dǎo)航。視覺SLAM的地圖建立4.易用性激光SLAM
    的頭像 發(fā)表于 09-11 22:01 ?1892次閱讀

    自動駕駛的視覺定位與導(dǎo)航應(yīng)用詳細解析

    SLAM(Simultaneous Localization And Mapping,同步定位與)的方式構(gòu)建一個幾何地圖,然后在地圖中進行路徑規(guī)劃和導(dǎo)航。在每一個時刻,無人車可以通
    發(fā)表于 04-28 08:00 ?7次下載
    自動駕駛的<b class='flag-5'>視覺</b>定位與<b class='flag-5'>導(dǎo)航</b>應(yīng)用詳細解析

    基于深度學習的視覺SLAM綜述

    SLAM本質(zhì)上是一個狀態(tài)估計問題,根據(jù)傳感器做劃分,主要是激光、視覺兩大類。激光SLAM的研究在理論和工程上都比較成熟,現(xiàn)有的很多行業(yè)已經(jīng)開始使用激光SLAM完成工業(yè)工作;而
    的頭像 發(fā)表于 12-02 15:00 ?1619次閱讀

    基于相機和激光雷達的視覺里程計和系統(tǒng)

    提出一種新型的視覺-LiDAR里程計和系統(tǒng)SDV-LOAM,能夠綜合利用相機和激光雷達的信息,實現(xiàn)高效、高精度的姿態(tài)估計和實時
    發(fā)表于 05-15 16:17 ?609次閱讀
    基于<b class='flag-5'>相機</b>和激光雷達的<b class='flag-5'>視覺</b>里程計和<b class='flag-5'>建</b><b class='flag-5'>圖</b>系統(tǒng)

    視覺紋理導(dǎo)航,亦稱Visual SLAM導(dǎo)航

    視覺紋理導(dǎo)航,亦稱Visual SLAM導(dǎo)航,通過自動導(dǎo)引車車載視覺傳感器獲取運行區(qū)域周的圖像信息來實現(xiàn)
    的頭像 發(fā)表于 04-29 10:01 ?3235次閱讀
    <b class='flag-5'>視覺</b>紋理<b class='flag-5'>導(dǎo)航</b>,亦稱Visual <b class='flag-5'>SLAM</b><b class='flag-5'>導(dǎo)航</b>