0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何通過速度匹配將雷達(dá)添加到融合管道中

ml8z_IV_Technol ? 來源:未知 ? 作者:胡薇 ? 2018-11-26 16:31 ? 次閱讀

自動駕駛中的環(huán)境感知傳統(tǒng)上采用傳感器融合的方法,將安裝在汽車上的各種傳感器的目標(biāo)檢測組合成單一的環(huán)境表征。未經(jīng)校準(zhǔn)的傳感器會導(dǎo)致環(huán)境模型中的偽像和像差,這使得像自由空間探測這樣的任務(wù)更具挑戰(zhàn)性。在本研究中,我們改進(jìn)了Levinson和Thrun的LiDAR和相機(jī)融合方法。我們依靠強(qiáng)度不連續(xù)性以及邊緣圖像的侵蝕和膨脹來增強(qiáng)對陰影和視覺模式的魯棒性,這是點(diǎn)云相關(guān)工作中反復(fù)出現(xiàn)的問題。此外,我們使用無梯度優(yōu)化器而不是窮舉網(wǎng)格搜索來尋找外部校準(zhǔn)。因此,我們的融合管道重量輕,能夠在車載計算機(jī)上實(shí)時運(yùn)行。對于檢測任務(wù),我們修改了快速R - CNN架構(gòu),以適應(yīng)混合LiDAR -攝像機(jī)數(shù)據(jù),從而改進(jìn)目標(biāo)檢測和分類。我們在KITTI數(shù)據(jù)集和本地收集的城市場景上測試我們的算法。

自動駕駛汽車依靠各種傳感器來感知環(huán)境。為了建立他們周圍世界的一致模型,并在其中安全地工作,需要融合不同傳感器的數(shù)據(jù)[1]。每種類型的傳感器都有自己的優(yōu)點(diǎn)和缺點(diǎn)[ 2 ]。RGB攝像機(jī)能夠感知來自周圍世界的顏色和紋理信息,并能很好地完成目標(biāo)分類任務(wù),然而,它們的探測范圍有限,在有限的光照或惡劣的天氣條件下表現(xiàn)不佳。LiDARs提供精確的距離信息,其范圍可以超過100米,并且能夠探測到小物體。它們在夜間也能很好地工作,但不提供顏色信息,而且在大雨中它們的性能會下降[3][4]。雷達(dá)提供精確的距離和速度信息,在惡劣天氣條件下工作良好,但分辨率較低[5]。

如今,高級融合( HLF )是一種非常流行的傳感器融合方法,[ 1 ]。HLF分別用每個傳感器檢測對象,并隨后組合這些檢測。因此,對象檢測是在可用信息有限的地方進(jìn)行的,因?yàn)槿绻嬖诙鄠€重疊對象和工件,則HLF會丟棄置信值較低的分類。相反,低級融合(LLF)在原始數(shù)據(jù)級別結(jié)合了來自不同傳感器類型的數(shù)據(jù),從而保留了所有信息,并潛在地提高了目標(biāo)檢測的準(zhǔn)確性。

LLF本質(zhì)上是復(fù)雜的,伴隨著幾個挑戰(zhàn),需要對傳感器進(jìn)行非常精確的外部校準(zhǔn),以正確融合傳感器對環(huán)境的感知。此外,傳感器記錄需要時間同步并補(bǔ)償自我運(yùn)動。然后,多模態(tài)輸入數(shù)據(jù)可以用于深度神經(jīng)網(wǎng)絡(luò)的目標(biāo)檢測。融合和檢測算法都必須能夠在公路駕駛場景中實(shí)時運(yùn)行。近年來,LLF以其潛在的優(yōu)勢引起了人們的關(guān)注。例如,Chen等人。[6]發(fā)展了一種用于LiDAR和攝像機(jī)數(shù)據(jù)的融合方法,這種方法在Kitti數(shù)據(jù)集的三維定位和三維檢測方面優(yōu)于現(xiàn)有的方法[7]。

LevinsonandThrun[8]提出了一種用于LiDAR和攝像機(jī)外部標(biāo)定的算法,但不使用融合的數(shù)據(jù)進(jìn)行目標(biāo)檢測。Geiger等人提出了一種基于三維目標(biāo)標(biāo)定的方法。[9]在同一場景中使用多個棋盤,并使用帶有距離傳感器或Microsoft Kinect的三目相機(jī)。對于我們的LLF方法,我們改進(jìn)了LevinsonandThrun[8]的外部LiDAR相機(jī)標(biāo)定方法,我們將沖蝕和膨脹應(yīng)用于反距離變換的圖像邊緣,發(fā)現(xiàn)這些形態(tài)平滑了目標(biāo)函數(shù),提高了對場景中陰影和其他視覺模式的魯棒性。

定性的COM-Parison之間的方法和Kitti提供的外部SiC校準(zhǔn)表明,我們的方法產(chǎn)生了一個更好的視覺擬合。此外,我們用無梯度優(yōu)化算法代替了對變換參數(shù)的窮舉網(wǎng)格搜索。我們將LiDAR點(diǎn)云投影到RGB圖像上,對其進(jìn)行采樣,然后從中提取特征。我們采用了更快的R - CNN架構(gòu)[10]來處理融合的輸入數(shù)據(jù)。結(jié)果表明,使用融合的LiDAR和攝像機(jī)數(shù)據(jù)改善了Kitti數(shù)據(jù)集[ 7 ]上的目標(biāo)檢測結(jié)果。我們的傳感器融合算法能夠以10Hz的頻率實(shí)時運(yùn)行。此外,我們展望了激光雷達(dá)和雷達(dá)之間外部校準(zhǔn)的新方法。

其余的工作安排如下。在第Ⅱ節(jié)中,我們概述了相關(guān)工作。在第III節(jié)中,我們推導(dǎo)了我們的算法。首先,我們討論了LiDAR與攝像機(jī)的融合;隨后,我們提出了我們對更快的R-CNN架構(gòu)的修改,以利用融合的數(shù)據(jù)。在第Ⅳ節(jié)中,討論了我們的結(jié)果,最后對今后的工作進(jìn)行了總結(jié)和展望。

Ⅱ.相關(guān)工作

相機(jī)和LiDAR之間外部校準(zhǔn)的計算通常依賴于預(yù)先定義的標(biāo)記,如棋盤或AR標(biāo)簽,校準(zhǔn)過程本身大多是離線的。Dhall等人的方法[ 11 ]使用特殊編碼的ArOco標(biāo)記[ 12 ]來獲得LiDAR和相機(jī)之間的3D - 3D點(diǎn)對應(yīng)關(guān)系。Velas等人的校準(zhǔn)方法[ 13 ]也依賴于特定的3D標(biāo)記。在[ 14 ] 中,Schneider等人提出了一種基于深度學(xué)習(xí)的端到端特征提取、特征匹配和全局回歸的體系結(jié)構(gòu)。他們的方法能夠?qū)崟r運(yùn)行,并且可以針對在線錯誤校準(zhǔn)誤差進(jìn)行調(diào)整。然而,從頭開始訓(xùn)練系統(tǒng)需要大量數(shù)據(jù)。此外,每輛車都需要單獨(dú)收集數(shù)據(jù),因?yàn)閭鞲衅鞯呐帕泻蛢?nèi)部結(jié)構(gòu)可能會有所不同。Castlerena等人的研究[ 15 ]基于使用反射率值的光學(xué)相機(jī)和LiDAR數(shù)據(jù)之間的邊緣對齊,使用KITTI外部參數(shù)作為地面真實(shí)情況,他們實(shí)現(xiàn)了接近KITTI精度的無目標(biāo)方法。Levinson和Thron [ 8 ]的無目標(biāo)相機(jī)LiDAR校準(zhǔn)方法適合圖像和點(diǎn)云數(shù)據(jù)中的邊緣,但使用了詳盡的網(wǎng)格搜索。我們的外部校準(zhǔn)方法建立在此基礎(chǔ)上,但是在線工作,不需要對參數(shù)進(jìn)行詳盡的計算搜索。

III.方法

這一部分概述了當(dāng)前與相機(jī)和LiDAR傳感器數(shù)據(jù)融合相關(guān)的研究,包括內(nèi)部傳感器校準(zhǔn)、傳感器之間的外部校準(zhǔn)和數(shù)據(jù)融合,以創(chuàng)建混合數(shù)據(jù)類型。傳感器融合可分為三類:LLF、中層融合( MLF )和HLF。HLF是汽車原始設(shè)備制造商最流行的融合技術(shù),主要是因?yàn)樗褂昧斯?yīng)商提供的傳感器對象列表,并將它們集成到環(huán)境模型[1]中。然而,由于傳感器沒有相互校準(zhǔn),這種方法會導(dǎo)致像差和重復(fù)物體。防止這些問題發(fā)生的一種方法是融合原始傳感器數(shù)據(jù)( LLF )。MLF是位于LLF之上的一種抽象,從多個傳感器數(shù)據(jù)中提取的特征被融合在一起。圖1顯示了我們車上的傳感器設(shè)置,圖2給出了整個融合管道的概述。以下各節(jié)將更詳細(xì)地解釋每個部分。

A.激光雷達(dá)和照相機(jī)的融合

在本節(jié)中,我們描述了LiDAR和相機(jī)的外部校準(zhǔn)方法、LiDAR點(diǎn)云( PC )在圖像上的投影、其采樣和深度圖中的特征提取。為了確保同時捕獲PC和圖像,我們通過軟件觸發(fā)兩個傳感器的記錄,并使用Velodyne HDL - 64E S3作為我們的LiDAR傳感器,它以10Hz的頻率旋轉(zhuǎn)。為了減少捕獲的PC的失真,我們補(bǔ)償了傳感器記錄期間車輛的自我運(yùn)動。

圖1.寶馬測試車的傳感器設(shè)置由LiDAR (紅色箭頭)、攝像機(jī)(藍(lán)色箭頭)和雷達(dá)(綠色箭頭)組成。

外部傳感器校準(zhǔn)依賴于傳感器的精確內(nèi)部校準(zhǔn)。3 * 4相機(jī)固有矩陣定義了從相機(jī)到圖像坐標(biāo)系的齊次坐標(biāo)投影。我們遵循Datta等人的方法[ 16 ]并使用環(huán)形圖案校準(zhǔn)板(見圖3 ),對參數(shù)進(jìn)行迭代細(xì)化。與棋盤式照相機(jī)的標(biāo)準(zhǔn)校準(zhǔn)方法相比,我們觀察到平均再投影誤差減少了70 %。本征LiDAR校準(zhǔn)由制造商提供,該校準(zhǔn)定義了從每個發(fā)射器到傳感器基座坐標(biāo)系的轉(zhuǎn)換。

圖2.我們的傳感器融合和物體檢測管道概述。左圖顯示了傳感器之間的外部校準(zhǔn),并且僅在需要新校準(zhǔn)時執(zhí)行一次。右圖顯示了周期性運(yùn)行的傳感器融合和目標(biāo)檢測/定位的管道。

圖3.用于攝像機(jī)校準(zhǔn)的環(huán)形花紋板。按照[16]的內(nèi)稟攝像機(jī)標(biāo)定方法,與[17]的標(biāo)準(zhǔn)標(biāo)定方法相比,平均再投影誤差降低了70%。

圖4.LiDAR和照相機(jī)外定標(biāo)的問題說明。計算兩個傳感器之間的外定標(biāo)是指估計它們的坐標(biāo)系之間的旋轉(zhuǎn)R和平移t。我們明確地計算從LiDAR到攝像機(jī)的距離,并且能夠推斷出另一個方向。

LiDAR和攝像機(jī)之間的外部校準(zhǔn)對應(yīng)于在它們的坐標(biāo)系之間找到4*4變換矩陣由旋轉(zhuǎn)和平移組成,因此具有六個自由度( DoFs ) (見圖4 )。為了找到LiDAR和攝像機(jī)之間的外部校準(zhǔn),我們通常遵循Levinson和Thron [ 8 ]的方法,但對其進(jìn)行了一些調(diào)整,如下文所述。

圖5. 圖5.由于沒有對提取的邊緣圖像應(yīng)用侵蝕和膨脹而導(dǎo)致的非最佳校準(zhǔn)估計。頂部(底部)圖像顯示了提取的邊緣圖像( RGB圖像),基于校準(zhǔn)估計,該邊緣圖像沒有被投影的PC覆蓋。RGB圖像中來自右側(cè)汽車中心和下方樹木的小陰影會產(chǎn)生邊緣,PC數(shù)據(jù)中不存在相應(yīng)的邊緣。因此,優(yōu)化方法將產(chǎn)生非最優(yōu)校準(zhǔn)估計,這可以在右側(cè)的汽車輪胎上看到。ED能夠減少這種小紋理的影響。

基本概念是找到定義的六個參數(shù),使得相機(jī)圖像中的邊緣匹配點(diǎn)云測量中的不連續(xù)性。出于這個原因,我們定義了一個相似性函數(shù)S。我們對投影點(diǎn)云圖像X的深度不連續(xù)性與邊緣圖像E進(jìn)行元素乘法,并在所有像素i上返回該乘積的和。為了平滑目標(biāo)函數(shù)并覆蓋更多場景,我們使用N對點(diǎn)云和圖像,并對它們的匹配分?jǐn)?shù)求和。目標(biāo)是找到最大化的變換:

邊緣圖像E如下所示。我們將RGB圖像轉(zhuǎn)換成灰度,并用Sobel算子計算其邊緣。為了獎勵幾乎匹配的PC和圖像邊緣,我們模糊了圖像邊緣。Levinson和Thron [ 8 ]為此目的使用了逆距離變換( IDT )。另一種可能是應(yīng)用高斯濾波器。結(jié)果表明,IDT與侵蝕擴(kuò)張(ED)聯(lián)合應(yīng)用效果最好。IDT ED提高了場景中陰影的魯棒性,這在駕駛場景中非常常見。圖5展示了IDT + ED的優(yōu)勢。在此圖像中,ED尚未應(yīng)用。圖像右側(cè)中央和汽車下方樹木的小陰影會產(chǎn)生圖像邊緣,PC中不存在相應(yīng)的邊緣。然而,優(yōu)化方法將試圖匹配這些邊緣,導(dǎo)致更差的校準(zhǔn)估計。在這種情況下,缺少ED會產(chǎn)生校準(zhǔn)誤差,這可以在車輛右側(cè)的輪胎上看到。ED能夠減少圖像中如此小的紋理差異的影響。如同在[ 8 ]中一樣,我們提取PC P中的范圍不連續(xù)性,產(chǎn)生不連續(xù)性P*的點(diǎn)云,具有

除了在[8]中,PI,j不僅可以表示深度,也可以表示i束Jth測量的強(qiáng)度。我們發(fā)現(xiàn),利用強(qiáng)度值獲得的標(biāo)定結(jié)果更好,因?yàn)榫哂羞吘壓筒煌牧系钠矫姹砻娌伙@示范圍而是強(qiáng)度不連續(xù)。然后將新獲得的PC用估計變換到攝像機(jī)坐標(biāo)系,然后用攝像機(jī)內(nèi)稟矩陣投影到圖像平面上,得到投影點(diǎn)云圖像X。

相似函數(shù)S是非凸的,不能解析求解。Levinson和Thrun [ 8 ]在六個參數(shù)上使用一個計算成本高昂的窮舉網(wǎng)格搜索進(jìn)行初始校準(zhǔn),然后在線逐步調(diào)整。由于我們?nèi)缟纤鰧λ鼈兊姆椒ㄟM(jìn)行了修改,我們能夠從參數(shù)的初始猜測開始使用無梯度優(yōu)化方法來找到最優(yōu)的。我們使用BOBYQA [ 18 ],這是一種迭代算法,用于在優(yōu)化變量的邊界下找到黑體函數(shù)的最小值。BOBYQA依賴于具有信任區(qū)域的二次近似。我們能夠從最初幾厘米/度的猜測開始找到最佳參數(shù)。因此,我們的方法能夠考慮制造公差。

圖6.用匹配和不匹配的外部LiDAR相機(jī)校準(zhǔn)比較與PC強(qiáng)度值重疊的圖像。上圖顯示了LiDAR相機(jī)外部與未對齊的圖像和PC邊緣不匹配。在底部圖像中,外部匹配良好,邊緣對齊良好。

通過利用正確外部校準(zhǔn)周圍的局部凸性,有可能跟蹤外部校準(zhǔn)估計的正確性,如[ 8 ]所示。想法是分析當(dāng)前的校準(zhǔn)C是否導(dǎo)致S的局部最大Sc。理想情況下,如果給定的校準(zhǔn)C是正確的,那么與C的任何小偏差都會降低相似性分?jǐn)?shù)。我們在所有6個維度上執(zhí)行以給定校準(zhǔn)C為中心的單位半徑網(wǎng)格搜索,得到36= 729個不同的相似度分?jǐn)?shù)S。其中一個將是位于網(wǎng)格中心的Sc本身。FC是其他728個產(chǎn)生的S值低于SC的分?jǐn)?shù)。如果外部校準(zhǔn)C正確,這728個值中的大多數(shù)應(yīng)該小于SC,導(dǎo)致FC接近1。圖7顯示了對于給定校準(zhǔn),相似性分?jǐn)?shù)低于SC的校準(zhǔn)百分比,從而得出了不同校準(zhǔn)估計的一系列幀上的FC圖。我們可以看到,正確的外部校準(zhǔn)對應(yīng)于比不正確校準(zhǔn)更大的FC。

圖7.給定校準(zhǔn)估計值周圍的校準(zhǔn)百分比,其相似性分?jǐn)?shù)低于不同幀上實(shí)際估計值的相似性分?jǐn)?shù)。紅色曲線對應(yīng)于多個幀上正確校準(zhǔn)的FC,而所有其他曲線對應(yīng)于不正確校準(zhǔn)。

PC用變換,隨后用投影到RGB圖像上,產(chǎn)生RGB圖像,其中深度是稀疏的。圖6顯示了具有匹配和非匹配外部校準(zhǔn)的RGBD圖像的可視化。對于神經(jīng)網(wǎng)絡(luò)在融合數(shù)據(jù)上的訓(xùn)練和評估,我們需要標(biāo)記數(shù)據(jù)。由于標(biāo)簽價格昂貴,我們希望利用來自預(yù)先培訓(xùn)的網(wǎng)絡(luò)的權(quán)重。對于圖像數(shù)據(jù)來說,這可以很容易地完成,因?yàn)榇罅繕?biāo)記數(shù)據(jù)是免費(fèi)提供的。

然而,對于投影的LiDAR數(shù)據(jù),情況并非如此。因此,我們的目標(biāo)是以類似RGB圖像特征的方式對稀疏深度圖進(jìn)行編碼。這種編碼方案允許我們也使用來自圖像數(shù)據(jù)的預(yù)先訓(xùn)練的網(wǎng)絡(luò)權(quán)重,用于網(wǎng)絡(luò)中的深度通道。

我們通過首先使用Prebida等人提出的雙邊濾波器對稀疏深度圖進(jìn)行上采樣來實(shí)現(xiàn)這種編碼。[ 19 ]得到了一張密集的深度圖。然后,我們可以從稠密的深度圖中提取類似圖像的特征。Etel等人提出的噴射著色產(chǎn)生了一組這樣的特征[ 20 ]。通過將噴射顏色映射應(yīng)用于標(biāo)準(zhǔn)化深度值,可以簡單地獲得三通道編碼。此外,我們還提取了HHA(水平視差、離地高度、相對重力的角度)特征[21]。兩組三通道特征顯示出與RGB數(shù)據(jù)相似的結(jié)構(gòu)。編碼深度數(shù)據(jù)的尺寸與攝像機(jī)數(shù)據(jù)的尺寸相匹配。RGB與JET / HHA結(jié)合產(chǎn)生總共六個數(shù)據(jù)通道,代表我們的融合數(shù)據(jù)。

B.融合數(shù)據(jù)上的目標(biāo)檢測

LLF和MLF的基本思想是利用來自多感官融合數(shù)據(jù)的更明顯和更有區(qū)別的特征集,這可以提高檢測和分類的準(zhǔn)確性。對于LLF,我們使用帶有VGG16 [ 10 ]的標(biāo)準(zhǔn)快速R - CNN管道,并修改其輸入層以容納6通道輸入數(shù)據(jù)。對于MLF,我們復(fù)制了快速R - CNN網(wǎng)絡(luò)的前四個卷積層,并為每個攝像機(jī)和LiDAR數(shù)據(jù)處理使用一個單獨(dú)的分支。我們將每個分支的第四卷積層之后的特征向量連接起來,并將其輸入到標(biāo)準(zhǔn)快速R - CNN架構(gòu)的上部。我們使用轉(zhuǎn)移學(xué)習(xí)[ 22 ]并將權(quán)重從僅RGB網(wǎng)絡(luò)初始化到每個子網(wǎng)絡(luò),用于基于MLF的檢測。對于LLF,我們保持卷積濾波器的數(shù)量與最初的快速R - CNN網(wǎng)絡(luò)相同。對于MLF,由于有兩個分支,前四層中的參數(shù)數(shù)量增加了一倍。

對“汽車”和“行人”類別進(jìn)行檢測和分類。在我們的實(shí)驗(yàn)中,我們將三種更快的R - CNN網(wǎng)絡(luò)架構(gòu)用于僅RGB、RGB深度LLF和RGB深度MLF。RGB - only是標(biāo)準(zhǔn)的快速R - CNNN架構(gòu),僅使用相機(jī)數(shù)據(jù)作為輸入。我們用融合數(shù)據(jù)訓(xùn)練RGB深度線性調(diào)頻和RGB深度線性調(diào)頻,并同時使用JET和HHA深度編碼。RGB深度LLF的輸入由六通道融合數(shù)據(jù)組成。RGB深度MLF的輸入包括RGB和到各個網(wǎng)絡(luò)分支的深度編碼數(shù)據(jù)。

Ⅳ.結(jié)果

結(jié)果部分分為傳感器校準(zhǔn)以及LLF和MLF的目標(biāo)檢測和定位結(jié)果。我們的方法已經(jīng)在Kitti [ 7 ]和當(dāng)?shù)厥占某鞘袌鼍皵?shù)據(jù)集上進(jìn)行了評估。在這里,我們只給出公開的KITTI數(shù)據(jù)集的結(jié)果。

寶馬測試車如圖1所示,用于記錄內(nèi)部數(shù)據(jù)集,并在實(shí)踐中評估傳感器融合和檢測管道。這輛車包含一臺裝有用于融合的英特爾至強(qiáng)處理器的計算機(jī)和一張運(yùn)行神經(jīng)網(wǎng)絡(luò)的NVIDIA顯卡。本研究中使用的傳感器是Velodyne HDL - 64E S3、Point Gray Research公司的Grashhopper 2 GS2 - GE - 50S 5C - C攝像機(jī)和Axis通信P1214 - E網(wǎng)絡(luò)攝像機(jī)。傳感器融合以10Hz運(yùn)行,與LiDAR同步。每個融合數(shù)據(jù)對的目標(biāo)檢測推斷時間約為250毫秒。優(yōu)化框架,如NVIDIA的TenSORT [ 23,可能會大大減少推理時間。

圖8.我們的圖像邊緣提取方法的可視化。(上)顯示RGB圖像,(中)顯示應(yīng)用于圖像邊緣的IDT + DE結(jié)果,(下)顯示圖像邊緣與PC的擬合。

A.校準(zhǔn)結(jié)果

使用IDT + DE進(jìn)行邊緣提取和后續(xù)邊緣模糊環(huán)的結(jié)果如圖8所示。校準(zhǔn)算法成功收斂,對初始猜測中的誤差具有魯棒性。IDT + DE處理成功平滑了邊緣圖像中的梯度,產(chǎn)生了更平滑的相似度函數(shù),優(yōu)化器可以找到全局最大值?;蛘?,可以為此目的使用高斯平滑,這種平滑精度較低,但速度更快。更多細(xì)節(jié)在圖5中已有說明。

由于Kitti用于網(wǎng)絡(luò)訓(xùn)練,因此有必要進(jìn)行正確的外部校準(zhǔn)。數(shù)據(jù)集包括外部校準(zhǔn),該校準(zhǔn)是根據(jù)來自PC和圖像[ 24的手動選擇的點(diǎn)對應(yīng)關(guān)系計算的。我們使用KITTI校準(zhǔn)作為我們的初始猜測,運(yùn)行我們的外部校準(zhǔn)方法。表I顯示了我們計算的擠出物與提供的KITTI擠出物的偏差。一般來說,傳感器之間的外部校準(zhǔn)沒有基礎(chǔ)事實(shí)。因此,我們無法提供絕對錯誤。然而,目視檢查(見圖9 )顯示,我們的樣品比Kitti提供的樣品更準(zhǔn)確。

表一非本征激光雷達(dá)相機(jī)的絕對差異

KITTI的校準(zhǔn)參數(shù)和我們的方法

V.結(jié)論和今后的工作

在本研究中,我們改進(jìn)了Levinson和Thron [ 8 ]的現(xiàn)有校準(zhǔn)方法,以提高物體的檢測和定位精度。我們通過使用LiDAR、IDT + DE和無梯度優(yōu)化器的強(qiáng)度不連續(xù)性來估計旋轉(zhuǎn)和平移參數(shù),從而在許多方面進(jìn)行了改進(jìn)。融合LiDAR和照相機(jī)的高級目標(biāo)列表的流行方法缺乏適當(dāng)?shù)耐獠啃?zhǔn),因此在融合數(shù)據(jù)中產(chǎn)生像差和振鈴。我們的外部校準(zhǔn)方法產(chǎn)生的結(jié)果比KITTI數(shù)據(jù)集的校準(zhǔn)更準(zhǔn)確,我們的融合實(shí)時運(yùn)行、重量輕。我們對投影點(diǎn)云進(jìn)行上采樣,并使用不同的深度編碼( HHA / JET )。我們展示了相機(jī)LiDAR部分的中低層融合RGB和深度數(shù)據(jù)的檢測和分類結(jié)果。

我們的工作可以通過將雷達(dá)集成到融合管道中來擴(kuò)展。我們目前正在遵循一種基于速度跟蹤的激光雷達(dá)和雷達(dá)之間的外部校準(zhǔn)方法。在LiDAR和雷達(dá)數(shù)據(jù)中,屬于單個對象的測量值被聚類,然后基于估計/測量的速度相互關(guān)聯(lián)。然后,對應(yīng)關(guān)系產(chǎn)生變換矩陣的估計。這種方法中的幾個步驟,LiDAR數(shù)據(jù)的跟蹤、聚類和輪廓保持需要自動化和改進(jìn)。

此外,我們預(yù)計使用即將推出的Flash LiDArs會帶來更好的效果。Flash LiDArs將有助于消除補(bǔ)償PC中許多基于自我運(yùn)動的異常,也有助于傳感器之間更好的時間同步。

REFERENCES

[1] M. Aeberhard and N. Kaempchen,“High-level sensor data fusion architecture for vehicle surround environmentperception,” in Proc. 8th Int. Workshop Intell. Transp, 2011.

[2] J.-r. Xue, D. Wang, S.-y. Du, D.-x. Cui,Y. Huang, and N.-n. Zheng,“A vision-centered multi-sensor fusing approach to self-localization andobstacle perception for robotic cars,” Frontiers of Information Technology& Electronic Engineering, vol. 18, no. 1, pp. 122–138,2017.

[3] J. Lu, H. Sibai, E. Fabry, and D. A.Forsyth, “NO need to worry about adversarial examples in object detection inautonomous vehicles,” CoRR, vol. abs/1707.03501, 2017. [Online]. Available:http://arxiv.org/abs/1707.03501

[4]“Velodyne64,”http://velodynelidar.com/lidar/products/manual/HDL64E\%20S3\%20manual.pdf,[Online; accessed Nov 15, 2017].

[5] “Continental radar user manual,” https://www.continental

automotive.com/getattachment/bffa64c8-8207-4883-9b5c-85316165824a/Radar[1]PLC-Manual-EN.pdf.aspx,[Online; accessed Nov 15, 2017].

[6] X. Chen, H. Ma, J. Wan, B. Li, and T.Xia, “Multi-view 3d object detection network for autonomous driving,” in IEEECVPR, 2017.

[7] A. Geiger, P. Lenz, and R. Urtasun,“Are we ready for autonomous driving? the kitti vision benchmark suite,” inComputer Vision and Pattern Recognition (CVPR), 2012 IEEE Conference on. IEEE,2012,pp. 3354–3361.

[8] J. Levinson and S. Thrun, “Automaticonline calibration of cameras and lasers.” in Robotics: Science and Systems,2013, pp. 24–28.

[9] A. Geiger, F. Moosmann, . Car, and B.Schuster, “Automatic camera and range sensor calibration using a single shot,”in 2012 IEEE International Conference on Robotics and Automation, May 2012, pp.3936–3943.

[10] S. Ren, K. He, R. Girshick, and J.Sun, “Faster r-cnn: Towards real[1]timeobject detection with region proposal networks,” in Advances in neuralinformation processing systems, 2015, pp. 91–99.

[11] A. Dhall, K. Chelani, V.Radhakrishnan, and K. M. Krishna,“Lidar-camera calibration using 3d-3d point correspondences,” CoRR, vol.abs/1705.09785, 2017. [Online]. Available: http://arxiv.org/abs/ 1705.09785

[12] S. Garrido-Jurado, R. M. noz Salinas,F. Madrid-Cuevas, and M. Mar′?n-Jimenez, “Automatic generation and detection ofhighly ′ reliable fiducial markers under occlusion,” Pattern Recognition, vol.47, no. 6, pp. 2280 – 2292, 2014. [Online]. Available: http://www.sciencedirect.com/science/article/pii/S0031320314000235

[13] M. Velas, M. Spanel, Z. Materna, andA. Herout, “Calibration of rgb camera with velodyne lidar,” in Comm. PapersProc. International Conference on Computer Graphics, Visualization and ComputerVision (WSCG), 2014, pp. 135–144.

[14] N. Schneider, F. Piewak, C. Stiller,and U. Franke, “Regnet: Multimodal sensor registration using deep neuralnetworks,” CoRR, vol. abs/1707.03167, 2017. [Online]. Available:http://arxiv.org/abs/ 1707.03167

[15] J. Castorena, U. S. Kamilov, and P. T.Boufounos, “Autocalibration of lidar and optical cameras via edge alignment,”in 2016 IEEE International Conference on Acoustics, Speech and SignalProcessing (ICASSP), March 2016, pp. 2862–2866.

[16] A. Datta, J.-S. Kim, and T. Kanade,“Accurate camera calibration using iterative refinement of control points,” inComputer Vision Workshops (ICCVWorkshops), 2009 IEEE 12th International Conference on. IEEE, 2009, pp.1201–1208.

[17] Z. Zhang, “A flexible new techniquefor camera calibration,” IEEE Transactions on pattern analysis and machineintelligence, vol. 22, no. 11, pp. 1330–1334, 2000.

[18] M. J. Powell, “The bobyqa algorithmfor bound constrained op[1]timizationwithout derivatives,” Cambridge NA Report NA2009/06, University of Cambridge,Cambridge, 2009.

[19] C. Premebida, J. Carreira, J. Batista,and U. Nunes, “Pedestrian detection combining rgb and dense lidar data,” inIntelligent Robots and Systems (IROS 2014), 2014 IEEE/RSJ InternationalConference on. IEEE, 2014, pp. 4112–4117.

[20] A. Eitel, J. T. Springenberg, L.Spinello, M. Riedmiller, and W. Bur[1]gard,“Multimodal deep learning for robust rgb-d object recognition,” in IntelligentRobots and Systems (IROS), 2015 IEEE/RSJ Interna[1]tionalConference on. IEEE, 2015, pp. 681–687.

[21] S. Gupta, R. Girshick, P. Arbelaez,and J. Malik, “Learning rich ′ features from rgb-d images for object detectionand segmentation,” in European Conference on Computer Vision. Springer, 2014,pp. 345–360.

[22] Y. Wei, Y. Zhang, and Q. Yang,“Learning to transfer,” CoRR, vol. abs/1708.05629, 2017. [Online]. Available:http://arxiv.org/abs/1708. 05629

[23] “Nvidia tensorrt,”https://developer.nvidia.com/tensorrt, [Online; ac[1]cessedNov 15, 2017].

[24] A. Geiger, P. Lenz, C. Stiller, and R.Urtasun, “Vision meets robotics: The kitti dataset,” International Journal ofRobotics Research (IJRR), 2013.

[25] M. Everingham, L. Van Gool, C. K. I.Williams, J. Winn, and A. Zisserman, “The pascal visual object classes (voc)challenge,” International Journal of Computer Vision, vol. 88, no. 2, pp.303–338,Jun 2010. [Online]. Available: https://doi.org/10.1007/s11263-009-0275-4

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 自動駕駛
    +關(guān)注

    關(guān)注

    781

    文章

    13449

    瀏覽量

    165257
  • LIDAR
    +關(guān)注

    關(guān)注

    10

    文章

    316

    瀏覽量

    29256

原文標(biāo)題:自動駕駛中相機(jī)和LiDAR數(shù)據(jù)融合方法與目標(biāo)檢測

文章出處:【微信號:IV_Technology,微信公眾號:智車科技】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    如何AXI VIP添加到Vivado工程

    在這篇新博文中,我們來聊一聊如何 AXI VIP 添加到 Vivado 工程,并對 AXI4-Lite 接口進(jìn)行仿真。隨后,我們將在仿真波形窗口中講解用于AXI4-Lite 傳輸事務(wù)的信號。
    發(fā)表于 07-08 09:27 ?1913次閱讀

    Mentor PADSPCB封裝直接添加到PCB的教程

    一般,批量添加封裝到PCB板上有以下方法: 第一步:點(diǎn)擊菜單欄“ECO模式--添加元器件”如圖,點(diǎn)擊以后彈出如圖界面。 1)元件類型 PCB封裝必須得添加完元件類型,才能通過ECO模式
    的頭像 發(fā)表于 11-07 07:45 ?4290次閱讀
    Mentor PADS<b class='flag-5'>將</b>PCB封裝直接<b class='flag-5'>添加到</b>PCB的教程

    如何使用vhdl這種東西添加到TEMAC上?

    捕獲它。到目前為止它正在工作我想將UDP / IP堆棧添加到該MAC,任何人都可以建議我如何使用vhdl這種東西添加到TEMAC上。請盡快建議我。此致,Pavan Patil
    發(fā)表于 03-24 08:01

    新庫添加到Petalinux rootfs的最簡單方法是什么

    嗨,新庫添加到Petalinux rootfs的最簡單方法是什么?1>如何預(yù)編譯的庫添加到rootfs,這將在petalinux-config -c rootfs
    發(fā)表于 05-22 08:32

    怎樣PMSM模塊添加到Simulink

    如何去添加PMSM模塊?怎樣PMSM模塊添加到Simulink?
    發(fā)表于 09-23 09:16

    為什么無法DMA添加到SDMMC?

    你好!我有最新版本的 CubeMX我嘗試 DMA 添加到 SDMMC1但我看不到“DMA”選項(xiàng)表。如何添加 DMA?
    發(fā)表于 01-13 06:15

    如何TDM業(yè)務(wù)添加到WiMAX平臺上

    如何TDM業(yè)務(wù)添加到WiMAX平臺上 對于今天的運(yùn)營商來說,“接入”是一個熱門詞匯。盡管傳統(tǒng)接入鏈路依然是主要的收入來源,但它同時也成為限制
    發(fā)表于 10-20 21:29 ?689次閱讀

    如何Crosswalk添加到Cordova應(yīng)用程序

    英特爾開源技術(shù)中心的Bob Spencer解釋了如何Crosswalk添加到Cordova應(yīng)用程序,以提供具有世界級性能的可預(yù)測運(yùn)行時。
    的頭像 發(fā)表于 11-07 06:37 ?2231次閱讀

    Verizon達(dá)拉斯和奧馬哈添加到其5G組合

    美國5G網(wǎng)絡(luò)仍在繼續(xù)擴(kuò)展,只是速度不是很快。10月,Verizon達(dá)拉斯和奧馬哈添加到其5G組合,總共達(dá)到15個城市(您可以在我們的“ 5G競賽”頁面上的地圖上看到)。
    的頭像 發(fā)表于 10-27 14:21 ?1399次閱讀

    S7-1200模塊添加到組態(tài)的方法

     使用硬件目錄模塊添加到 CPU 。 有三種類型的模塊。
    的頭像 發(fā)表于 03-11 10:30 ?5148次閱讀

    如何WizFi360 EVB Mini添加到樹莓派Pico Python

    電子發(fā)燒友網(wǎng)站提供《如何WizFi360 EVB Mini添加到樹莓派Pico Python.zip》資料免費(fèi)下載
    發(fā)表于 12-01 14:38 ?0次下載
    如何<b class='flag-5'>將</b>WizFi360 EVB Mini<b class='flag-5'>添加到</b>樹莓派Pico Python

    LED添加到十字繡圖片

    電子發(fā)燒友網(wǎng)站提供《LED添加到十字繡圖片.zip》資料免費(fèi)下載
    發(fā)表于 02-09 10:12 ?0次下載
    <b class='flag-5'>將</b>LED<b class='flag-5'>添加到</b>十字繡圖片

    如何溶解氧添加到WiFi水培套件

    電子發(fā)燒友網(wǎng)站提供《如何溶解氧添加到WiFi水培套件.zip》資料免費(fèi)下載
    發(fā)表于 06-14 10:00 ?0次下載
    如何<b class='flag-5'>將</b>溶解氧<b class='flag-5'>添加到</b>WiFi水培套件

    西門子博途S7-1200:模塊添加到機(jī)架的方法

    在網(wǎng)絡(luò)視圖中將設(shè)備從硬件目錄添加到組態(tài)后,即可向設(shè)備添加模塊。
    的頭像 發(fā)表于 09-04 15:22 ?6099次閱讀
    西門子博途S7-1200:<b class='flag-5'>將</b>模塊<b class='flag-5'>添加到</b>機(jī)架的方法

    安裝python怎么添加到環(huán)境變量

    Python是一種簡單易學(xué)的腳本語言,廣泛應(yīng)用于開發(fā)各種類型的應(yīng)用程序。為了在Windows操作系統(tǒng)上使用Python的命令行工具,需要將Python添加到系統(tǒng)的環(huán)境變量。本文向您詳細(xì)介紹如何在
    的頭像 發(fā)表于 11-23 16:40 ?2169次閱讀