0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

基于金字塔的激光雷達和攝像頭深度融合網(wǎng)絡

3D視覺工坊 ? 來源:自動駕駛之心 ? 作者:汽車人 ? 2022-10-09 15:24 ? 次閱讀

摘要

自動駕駛汽車的魯棒環(huán)境感知是一項巨大的挑戰(zhàn),這使得多傳感器配置與例如相機、激光雷達和雷達至關重要。在理解傳感器數(shù)據(jù)的過程中,3D 語義分割起著重要的作用。因此,本文提出了一種基于金字塔的激光雷達和攝像頭深度融合網(wǎng)絡,以改進交通場景下的 3D 語義分割。單個傳感器主干提取相機圖像和激光雷達點云的特征圖。一種新穎的 Pyramid Fusion Backbone 融合了這些不同尺度的特征圖,并將多模態(tài)特征組合在一個特征金字塔中,以計算有價值的多模態(tài)、多尺度特征。Pyramid Fusion Head 聚合這些金字塔特征,并結合傳感器主干的特征在后期融合步驟中進一步細化。該方法在兩個具有挑戰(zhàn)性的戶外數(shù)據(jù)集上進行了評估,并研究了不同的融合策略和設置。論文基于range view的lidar方法已經(jīng)超過迄今為止提出的所有融合策略和結構。 論文的主要貢獻如下:

模塊化多尺度深度融合架構,由傳感器主干和新穎的金字塔融合網(wǎng)絡組成;

金字塔融合主干用于激光雷達和圖像在range view空間中的多尺度特征融合;

金字塔融合頭用于聚合和細化多模態(tài)、多尺度的金字塔特征。

568d1e8a-3acc-11ed-9e49-dac502259ad0.png

相關工作

2D語義分割

全卷積網(wǎng)絡(FCN)開創(chuàng)了2D語義分割的新局面。全卷積網(wǎng)絡專為端到端像素級預測而設計,因為它們用卷積替換全連接層。由于最初的 FCN 難以捕捉場景的全局上下文信息 [7],因此出現(xiàn)了新的結構 [7]-[9] — 基于金字塔特征進行多尺度上下文聚合,在收集全局上下文的同時保留精細細節(jié)。PSPNet [7] 應用了一個金字塔池化模塊(PPM),其結合最后一個特征圖的不同尺度。因此,網(wǎng)絡能夠捕獲場景的上下文以及精細的細節(jié)。HRNetV2 [9] 等其他方法利用主干中已經(jīng)存在的金字塔特征進行特征提取。對于全景分割的相關任務,EfficientPS [8] 通過應用雙向特征金字塔網(wǎng)絡 (FPN) [10],自底向上和自頂向下結合各種尺度的特征,之后使用語義頭,包含大規(guī)模特征提取器 (LSFE)、密集預測單元 (DPC) [11] 和不匹配校正模塊 (MC),以捕獲用于語義分割的大尺度和小尺度特征。

3D語義分割

與將 CNN 應用于規(guī)則網(wǎng)格排列的圖像數(shù)據(jù)相比,它們不能直接應用于 3D 點云。目前得到廣泛應用的已經(jīng)有幾種表示形式和專門的體系結構。 直接處理非結構化原始數(shù)據(jù)的先驅方法是 PointNet [3],它應用共享的多層感知器來提取每個輸入點云的特征。由于必須對任何輸入排列保持不變,因此使用對稱操作來聚合特征。進一步PointNet++ [4] 通過點云的遞歸分層組合來利用特征之間的空間關系。 不處理原始點云而將其轉換為離散空間的方法,例如 2D 或 3D 柵格。一種基于球面投影的新穎的2D柵格表示,即range view。SqueezeSeg [12] 是最早利用這種表示進行道路目標分割的方法之一。最新的方法 SqueezeSegV3 [13] 使用空間自適應卷積來消除range view的變化特征分布。RangeNet++ [1] 提出了一種有效的基于 kNN 的后處理步驟,以克服球面投影引起的一些缺點。與以前的方法相比,SalsaNext [2] 改進了網(wǎng)絡結構的各個方面,例如用于解碼的pixel-shuffle和 Lovasz-Softmax-Loss [14] 的使用。[15]中使用了卷積的另一種適應,這種方法應用輕量級harmonic dense卷積來實時處理range view,并取得了不錯的結果。此外,出現(xiàn)了利用多種表示的混合方法 [16]、[17]。

3D 多傳感器融合

多傳感器融合在計算機視覺的不同任務中受到廣泛關注。相機和激光雷達功能的結合主要用于 3D 目標檢測。語義分割等密集預測所需的特征的密集融合只有少數(shù)工作[18]-[21]進行了研究。 在 [18] 中,將基于密集和roi的融合應用于多個任務,包括 3D 目標檢測。另一種 3D 目標檢測方法 [19] 使用連續(xù)卷積來結合密集相機和激光雷達的BEV特征。融合層將多尺度圖像特征與網(wǎng)絡中不同尺度的激光雷達特征圖融合在一起。 LaserNet++ [20] 實現(xiàn)目標檢測和語義分割兩個任務。其首先通過殘差網(wǎng)絡處理相機圖像。使用投影映射,將相機特征轉換為range view。之后,concat的特征圖被輸入到 LaserNet [22]。Fusion3DSeg [21] 對相機和激光雷達特征使用迭代融合策略。在 Fusion3DSeg 中,相機和range view特征按照迭代深度聚合策略進行融合,以迭代融合多尺度特征。最終特征進一步與來自 3D 分支的基于點云的特征相結合,而不是常用的基于 kNN 的后處理 [1]特征。 與 [18] 相比,[19] 所提出的方法是模塊化的,并且各個傳感器主干彼此獨立,因為沒有圖像特征被送到激光雷達主干。此外,[19]提出了一種新穎的雙向金字塔融合策略。而 LaserNet++ [22] 只融合一次,不使用多尺度融合。Fusion3DSeg [21] 是最相關的工作,使用了迭代融合策略,這與本文的并行自底向上和自頂向下的金字塔策略有很大不同。

方法

論文提出的深度傳感器融合方法PyFu由四個主要部分組成。包含兩個主干,分別提取lidar和圖像特征,之后是Pyramid Fusion Backbone,以自頂向下和自底向上的方式在不同尺度上融合兩種模式的編碼器特征。進一步,Pyramid Fusion Head 結合了這些特征,并在后期融合步驟中將它們與兩個傳感器主干特征結合起來得到最終輸出。整體結構如下圖a所示。模塊化的方式訓練策略的選擇允許論文的方法處理相機不可用、更換主干或傳感器而不影響另一個,并聯(lián)合預測相機和激光雷達語義分割任務。因此,兩個主干都對其傳感器數(shù)據(jù)進行了預訓練,并在整個融合架構的訓練過程中凍結。所以論文的算法可以預測單個傳感器的語義結果,作為無相機或額外相機分割的備選。

569c6016-3acc-11ed-9e49-dac502259ad0.png

Lidar主干

激光雷達主干根據(jù) [21]、[23] 的球面投影計算輸入點云的特征,這些特征在range view中表示。其受 EfficientPS [8] 的啟發(fā),并適應了range view。與相機圖像相比,range images的分辨率較小,尤其是垂直方向,因此前兩個stage的下采樣步驟僅在水平方向執(zhí)行。此外,論文使用 EfficientNet-B1 [24] 作為編碼器并刪除最后三個stage。因此,雙向 FPN 只有三個stage而不是四個stage,并且輸出通道減少到 128 個,因為 EfficientNet-B1 使用的特征通道比 EfficientNet-B5 少。如上圖 a 所示,第三、第四和第六stage的特征圖輸入至 Pyramid Fusion Backbone中,用于與相機特征融合。由于移除了 FPN,相應的 DPC 模塊 [8] 也從語義頭中移除。頭部為 Pyramid Fusion Head 的后期融合提供其輸出特征。

Camera主干

論文研究的第一個主干還是 EfficientPS,但使用原始的 Efficient-B5 作為編碼器。與激光雷達主干相比,EfficientPS 可以直接作為相機主干。同樣,第三、第四和第六stage的特征圖輸入至 Pyramid Fusion Backbone。對于 Pyramid Fusion Head 中的后融合步驟,使用語義頭的輸出。 此外,選擇基于ResNet101 [25] 的 PSPNet 作為另一個主干。ResNet101 的 conv3_4、conv4_23 和 conv5_3 層的三個特征圖作為 Pyramid Fusion Backbone 的輸入提供。PPM 的輸出作為后期融合的輸入。

金字塔融合網(wǎng)絡

融合算法的核心模塊是 Pyramid Fusion Network,其融合了激光雷達和相機的特征。融合模塊將特征轉換至同一空間下,然后對兩種模態(tài)進行融合。Pyramid Fusion Backbone 在不同尺度下進行融合,并且以自頂向下和自底向上的方式聚合和組合得到的融合特征,如上圖 b 所示。Pyramid Fusion Head 在后期融合步驟中對這些多模態(tài)、多尺度特征進行組合和進一步細化。

特征轉換

為了實現(xiàn)激光雷達和攝像頭的融合,特征需要在同一空間下。因此,需要進行圖像到range view空間的特征投影。此外,投影必須適合不同尺度的特征圖。為了解決這個任務,論文使用了Fusion3DSeg [21]、[26] 的可擴展投影。總體思路是根據(jù)3D點云創(chuàng)建從圖像到range view的坐標映射。每個點云都可以投影到range view以及圖像中,從而在圖像和range view坐標之間創(chuàng)建所需的鏈接。

融合模塊

特征轉換和融合由融合模塊執(zhí)行,如下圖。首先,兩個傳感器的特征圖都被裁剪至相同的視野,因為融合只能在這個區(qū)域進行。圖像特征通過上述特征轉換在空間上轉換到range view空間上,然后學習特征投影以對齊激光雷達和圖像的特征空間,由一個反向殘差塊 (IRB) [8] 實現(xiàn)。lidar特征使用雙線性插值對齊圖像特征的大小,以方便進行融合。然后將對齊后的兩個特征concat,后面使用一個或多個用于學習融合的殘差模塊。該模塊旨在利用不同類型和數(shù)量的block來實現(xiàn)不同的融合策略。論文研究了一種基于Bottleneck Residual Block (BRB) [27] 的策略,以及使用 IRB (Inverted Residual Block )的反向殘差融合策略。

56b2afec-3acc-11ed-9e49-dac502259ad0.png

金字塔融合主干

所提出的融合模塊被合并到雙向 FPN 中以融合不同尺度的多傳感器特征,然后是自底向上和自頂向下的聚合以計算多模態(tài)、多尺度特征。從激光雷達主干中,三種不同尺度的特征輸入至對應的融合模塊。在那里,特征圖被上采樣到目標輸出分辨率,并與來自圖像主干的特征圖融合,這些特征圖也來自三個不同的尺度。然后將融合得到的三個特征圖聚合在自底向上和自頂向下的特征金字塔中,以計算多尺度特征。這樣,不同尺度的多模態(tài)特征的進行融合,一方面是精細的細節(jié),包含越來越多的上下文,另一方面是上下文,添加的細節(jié)越來越多。最終組合兩個金字塔輸出,并將生成的多模態(tài)、多尺度金字塔特征傳遞給 Pyramid Fusion Head。

金字塔融合head

head的第一步類似于激光雷達主干的語義head,其結合了來自雙向 FPN 的三個特征圖。進一步,論文使用圖像主干和lidar主干的最后一層特征,以改進金字塔融合網(wǎng)絡的特征。最終的特征圖接一個 1x1 卷積和softmax,得到分割結果。論文也使用了基于 kNN 的后處理 [1]步驟。

實驗結果

本文在SemanticKITTI [28] and PandaSet [29]兩個數(shù)據(jù)集上展開實驗。

金字塔融合網(wǎng)絡

論文首先在SemanticKITTI上展開實驗,結果如下表所示??傮w而言,PyFu 的性能分別優(yōu)于兩個基線 +3.9% 和 +2.7%,推理時間為 48 毫秒。

56c7d7fa-3acc-11ed-9e49-dac502259ad0.png

下一步,研究融合模塊內部的不同融合策略,結果如下表所示。首先,評估不同策略對金字塔主干 PFB 的影響。使用 BRB 后跟Residual Basic Block (BB) [27] 的bottleneck fusion策略優(yōu)于IRB 的反向策略。這也適用于整個 Pyramid Fusion Network。

56df5196-3acc-11ed-9e49-dac502259ad0.png

論文進一步在PandaSet上展開實驗,相比于基線實現(xiàn)了+8.8% 的顯著改進。

56ec4676-3acc-11ed-9e49-dac502259ad0.png

可視化結果如下:

57271b2a-3acc-11ed-9e49-dac502259ad0.png

定量結果

進一步,論文與SOTA的基于range view的方法進行比較,以評估多傳感器融合的優(yōu)勢,SemanticKITTI上的結果如下表所示。總體上優(yōu)于所有激光雷達方法。值得一提的是,增益的主要來自融合,而不是基線。這再次強調了圖像特征對改進 3D 語義分割的價值。論文進一步比較了與其他融合網(wǎng)絡的性能。金字塔融合策略優(yōu)于所有其他融合方法,PyFu 和 Fusion3DSeg [21] 的性能優(yōu)勢表明多尺度傳感器融合的巨大潛力。

5770e07a-3acc-11ed-9e49-dac502259ad0.png

最后,論文在PandaSet數(shù)據(jù)集上對比了集中方法,結果如下表所示:

57b148b8-3acc-11ed-9e49-dac502259ad0.png

審核編輯:郭婷

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 傳感器
    +關注

    關注

    2545

    文章

    50445

    瀏覽量

    751044
  • 攝像頭
    +關注

    關注

    59

    文章

    4793

    瀏覽量

    95274
  • 激光雷達
    +關注

    關注

    967

    文章

    3921

    瀏覽量

    189436

原文標題:最新SOTA | 基于range和camera融合的多模態(tài)3D語義分割(IV2022)

文章出處:【微信號:3D視覺工坊,微信公眾號:3D視覺工坊】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    無人駕駛技術中的激光雷達攝像頭都干些什么?

    在無人駕駛汽車上,激光雷達攝像頭相對于是汽車的“眼睛”,他們倆各有不同的優(yōu)缺點,激光雷達是獲取高精度地圖非常重要的傳感器,那么無人駕駛汽車到底用激光雷達還是用
    發(fā)表于 12-07 10:42 ?1.2w次閱讀
    無人駕駛技術中的<b class='flag-5'>激光雷達</b>和<b class='flag-5'>攝像頭</b>都干些什么?

    自制for循環(huán)打印金字塔

    自制for循環(huán)打印金字塔
    發(fā)表于 09-18 08:46

    速騰聚創(chuàng)激光雷達現(xiàn)在實現(xiàn)量產(chǎn)

    的環(huán)境感知系統(tǒng)一般由多個傳感器組成,包括激光雷達、毫米波雷達、攝像頭、GPS 等。其中,攝像頭、毫米波雷達、
    發(fā)表于 08-21 14:54

    淺析自動駕駛發(fā)展趨勢,激光雷達是未來?

    ,將毫米波雷達、攝像頭、激光雷達等傳感器數(shù)據(jù)融合的技術,對于保證車輛對周邊環(huán)境的全局定位和理解是至關重要的,且為Level 3-Level 5級自動駕駛方案的實現(xiàn)提供了必要的技術儲備。
    發(fā)表于 09-06 11:36

    激光雷達是自動駕駛不可或缺的傳感器

    `激光雷達是自動駕駛不可或缺的傳感器2015 年,當時業(yè)界還在爭論:無人駕駛是該用激光雷達還是用攝像頭。到 2016 年,事情發(fā)生很大的轉變,尤其某汽車公司 Autopilot 致死事故之后,業(yè)內
    發(fā)表于 09-08 17:24

    拆解的固態(tài)激光雷達有了這些新發(fā)現(xiàn)

    經(jīng)過拆解可以看出PIN型固態(tài)激光雷達除鏡頭外都有標準的量產(chǎn)元件可以選擇,門檻很低,成本也不高,未來可以取代傳統(tǒng)的低像素攝像頭。但與攝像頭比,激光雷達可以全天候全天時工作,雨雪霧霾,白天
    發(fā)表于 05-20 06:56

    基于深度神經(jīng)網(wǎng)絡激光雷達物體識別系統(tǒng)

    【新技術發(fā)布】基于深度神經(jīng)網(wǎng)絡激光雷達物體識別系統(tǒng)及其嵌入式平臺部署激光雷達可以準確地完成三維空間的測量,具有抗干擾能力強、信息豐富等優(yōu)點,但受限于數(shù)據(jù)量大、不規(guī)則等難點,基于
    發(fā)表于 12-21 07:59

    繪制金字塔程序實現(xiàn)

    用c語言編程繪制金字塔
    發(fā)表于 11-27 16:24 ?802次閱讀

    一種金字塔注意力網(wǎng)絡,用于處理圖像語義分割問題

    基于以上觀察,我們提出了特征金字塔注意力模塊 (FPA),該模塊能夠融合來自 U 型網(wǎng)絡 (如特征金字塔網(wǎng)絡 FPN) 所提取的三種不同尺度
    的頭像 發(fā)表于 06-05 09:21 ?1.2w次閱讀
    一種<b class='flag-5'>金字塔</b>注意力<b class='flag-5'>網(wǎng)絡</b>,用于處理圖像語義分割問題

    英特爾實感激光雷達深度攝像頭L515解析

    據(jù)麥姆斯咨詢報道,2019年英特爾(Intel)推出了實感(RealSense)激光雷達(LiDAR)深度攝像頭系列的第一款產(chǎn)品:L515。這款3D視覺傳感器主要為室內應用而設計,是英特爾專門針對室內距離捕捉而優(yōu)化的小型高精度設
    的頭像 發(fā)表于 09-21 09:23 ?1.5w次閱讀

    如何實現(xiàn)多聚焦圖像融合的拉普拉斯金字塔方法

    本文檔的主要內容詳細介紹的是如何實現(xiàn)多聚焦圖像融合的拉普拉斯金字塔方法。
    發(fā)表于 02-03 11:40 ?2次下載
    如何實現(xiàn)多聚焦圖像<b class='flag-5'>融合</b>的拉普拉斯<b class='flag-5'>金字塔</b>方法

    基于規(guī)范化函數(shù)的深度金字塔模型算法

    傳統(tǒng)深度金字塔模型作為一種有效的行人檢測算法備受關注,融合可變形部件模型和卷積神經(jīng)網(wǎng)絡模型,但特征提取部分使用的算法像素區(qū)堿的大小不冋,導致模型之間不能完全
    發(fā)表于 03-30 14:09 ?14次下載
    基于規(guī)范化函數(shù)的<b class='flag-5'>深度</b><b class='flag-5'>金字塔</b>模型算法

    激光雷達、單目攝像頭、雙目攝像頭原理和優(yōu)缺點

    激光雷達、單目攝像頭、雙目攝像頭原理和優(yōu)缺點 激光雷達是目前定位選擇的主流傳感器,帶自主導航的室內掃地機的商用產(chǎn)品,一般都會配備激光雷達。在
    的頭像 發(fā)表于 03-26 15:58 ?1.5w次閱讀
    <b class='flag-5'>激光雷達</b>、單目<b class='flag-5'>攝像頭</b>、雙目<b class='flag-5'>攝像頭</b>原理和優(yōu)缺點

    詳解無人駕駛傳感器:攝像頭、激光雷達、雷達、溫度傳感器

    詳解無人駕駛傳感器:攝像頭、激光雷達雷達、溫度傳感器
    的頭像 發(fā)表于 12-07 10:51 ?1500次閱讀
    詳解無人駕駛傳感器:<b class='flag-5'>攝像頭</b>、<b class='flag-5'>激光雷達</b>、<b class='flag-5'>雷達</b>、溫度傳感器

    激光雷達燒壞攝像頭?

    來源:芯傳感 ,謝謝 編輯:感知芯視界 Link 近日,一條“激光雷達燒壞地庫攝像頭”的視頻在網(wǎng)絡傳播。視頻顯示,一輛搭載有激光雷達的汽車經(jīng)過后,
    的頭像 發(fā)表于 11-30 09:14 ?1012次閱讀