0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

LargeKernel3D:在3D稀疏CNN中使用大卷積核

jf_pmFSk4VX ? 來源:GiantPandaCV ? 2023-04-06 09:54 ? 次閱讀

導(dǎo)讀

2D CNN 使用大卷積代替小卷積,增大了卷積核的感受野,捕獲到的特征更偏向于全局,效果也得到了提升,這表明較大的 kernel size 很重要。但是,當直接在 3D CNN 中應(yīng)用大卷積核時,那些在 2D 中成功的模塊設(shè)計在 3D 網(wǎng)絡(luò)效果不好,例如深度卷積。為了應(yīng)對這一重要挑戰(zhàn),本文提出了空間分區(qū)卷積及其大的 kernel size 模塊,它避免了原始 3D 大卷積核的優(yōu)化和效率問題。

本文的大卷核 3D CNN 網(wǎng)絡(luò) LargeKernel3D 在語義分割和對象檢測的 3D 任務(wù)中取得了顯著改進。它在 ScanNetv2 語義分割任務(wù)上實現(xiàn)了 72.8%的mIOU,在 NDS nuScenes 目標檢測基準上達到了 73.9% 的 mIoU,在 nuScenes LIDAR 排行榜上排名第一。通過簡單的多模式融合,性能進一步提升至 74.2% NDS。此外,LargeKernel3D 在 Waymo 3D 對象檢測上可以將卷積核擴大到 17×17×17 大小。首次證明大卷積核對于 3D 視覺任務(wù)是可行且必不可少的。

簡介

3D任務(wù)中普遍使用3D稀疏卷積網(wǎng)絡(luò)進行特征提取,一些方法使用 Transformer進行編-解碼。由于后者的全局和局部自我注意機制能夠從大空間范圍內(nèi)捕獲上下文信息,這對前者的有效感受野提出了挑戰(zhàn)。相比之下,常見的 3D 稀疏 CNN 受到了限制。2D CNN中,有一系列結(jié)合大卷積核提高有效感受野范圍的方法,例如,ConvNeXt 采用 7×7 深度卷積,RepLKNet 使用 31×31 的超大卷積核。但是由于3D 和 2D 任務(wù)之間的差異,這些方法并不能直接用于3D 稀疏 CNN 。

因此,3D 大核 CNN 設(shè)計難點主要分為兩個方面

(1)效率問題

增大3維立方卷積核時,參數(shù)量和計算負擔(dān)的增長速度比 2D CNN 快得多。比如,卷積核從 3x3x3 變?yōu)?7×7×7 時,模型大小增加了不止 10 倍;

(2)優(yōu)化問題

相比2D數(shù)據(jù)集,3D數(shù)據(jù)基準規(guī)模沒那么大,通常只包含不超過一千個場景。同時,3D 點云是稀疏的,而不是密集的,這導(dǎo)致優(yōu)化大卷積核的參數(shù)比較困難而造成過擬合問題。

作者提出空間分區(qū)卷積作為 3D 大核設(shè)計。通過在空間相鄰位置之間共享權(quán)重,代替通道級組的深度卷積。如圖 1 所示,空間分區(qū)卷積通過對鄰近空間進行分組將大內(nèi)核(例如 7×7)重新映射為小內(nèi)核(例如 3×3),而整個空間大小保持不變。具體說來,就是將內(nèi)核分成不同的部分,由于每個部分的權(quán)重共享,位置信息可能會變得模糊,因此,使用相對位置編碼作為偏差來補充丟失的位置信息。關(guān)于效率問題,它占用很少的模型尺寸來保持參數(shù)與小內(nèi)核的參數(shù)相同。此外,與普通的大型內(nèi)核對應(yīng)物相比,所需延遲更低。至于優(yōu)化挑戰(zhàn),空間維度之間的權(quán)重共享為參數(shù)提供了更多更新和克服過度擬合問題的機會。

1dc0ddc0-d40b-11ed-bfe3-dac502259ad0.png

不同核大小的稀疏卷積。小核稀疏卷積在局部區(qū)域收集特征,效率高,但由于特征斷開和范圍小而丟棄了足夠的信息流。大核稀疏卷積能夠以大量的參數(shù)和計算為代價捕獲遠程信息。本文提出的空間分區(qū)卷積使用大卷積核,并在局部鄰居之間共享權(quán)重以提高效率。

貢獻

本文的貢獻主要有以下幾點:

(1) 提出了 LargeKernel3D 神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),通過組合多個較小的卷積核構(gòu)成的一個較大的卷積核,從而顯著提高了網(wǎng)絡(luò)的精度,同時保持相對較小的參數(shù)量;

(2) 在幾個常見的3D數(shù)據(jù)集上,LargeKernel3D 都表現(xiàn)出了優(yōu)于其他最先進的3D稀疏卷積神經(jīng)網(wǎng)絡(luò)的表現(xiàn);

(3) 提出了相對位置編碼作為偏差來補充丟失的位置信息,解決權(quán)重共享導(dǎo)致的模糊問題。

通過這些貢獻,這篇論文在3D卷積神經(jīng)網(wǎng)絡(luò)領(lǐng)域提供了一種高效而準確的解決方案,為3D圖像分析和視覺任務(wù)提供了有用的工具。

3D Sparse CNNs

3D 稀疏卷積神經(jīng)網(wǎng)絡(luò)是一種針對三維圖像數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò),專門用于處理稀疏(或稱為稀有)的三維數(shù)據(jù),例如醫(yī)學(xué)圖像、點云數(shù)據(jù)等。與傳統(tǒng)的全連接卷積神經(jīng)網(wǎng)絡(luò)不同,稀疏卷積神經(jīng)網(wǎng)絡(luò)僅對稀疏空間進行計算。這種方法將必要的信息與無關(guān)的信息分離開來,避免處理輸入數(shù)據(jù)中多余的零值點,從而可以顯著減少計算成本,更有效地利用計算資源,并提高對不均勻或無規(guī)則的空間數(shù)據(jù)的識別能力。

3D 稀疏CNN的構(gòu)建與傳統(tǒng)的3D卷積神經(jīng)網(wǎng)絡(luò)相似,在其基礎(chǔ)上引入了稀疏輸入和輸出,以及乘法卷積(或稱為空間卷積)操作。稀疏卷積同時考慮了空間和特征通道之間的關(guān)系,這允許它更好地處理具有復(fù)雜空間結(jié)構(gòu)的數(shù)據(jù)。與稠密數(shù)據(jù)相比,空間中的稀疏數(shù)據(jù)包含較少可處理的有效數(shù)據(jù)點,3D稀疏CNN在前向計算過程中會自動選取非零節(jié)點作為計算節(jié)點,采用特殊的卷積操作(如空間卷積、乘法卷積等)更好的利用稀疏數(shù)據(jù)中的特征。

方法 Method

Spatial-wise Partition Convolution

pYYBAGQuJySAF3DkAACvCtes6Dw445.jpg

本文所提的3D 大卷積 CNN 的空間分區(qū)卷積。它在卷積核上的空間維度 K 之間共享權(quán)重,而不是在通道維度之間共享權(quán)重。也不同于 SGC,后者根據(jù)輸入特征劃分空間組。這里通過在鄰近空間之間共享權(quán)重,將原始的大卷積核從 7×7 分組為 3×3。由于輸入特征是稀疏的,為了避免卷積核擴大帶來的額外開銷,在推理過程中直接使用小核層,并將其特征分配區(qū)域擴大到大核范圍(如圖 3 所示),由于權(quán)重共享操作,它大大節(jié)省了乘法,從 343 次減少到 27 次。

1e0f4ece-d40b-11ed-bfe3-dac502259ad0.png空間分區(qū)卷積

Kernel-wise Position Encoding

鄰近空間之間共享權(quán)重,會導(dǎo)致局部細節(jié)模糊。隨著核大小增加,這個問題越來越嚴重。為了解決該問題,首先初始化位置權(quán)重,讓輸入的特征查詢對應(yīng)位置的位置權(quán)重,最后進行相加:

1e36560e-d40b-11ed-bfe3-dac502259ad0.png

這步的本質(zhì)是將具有相對位置信息的偏差添加到輸入特征中。如下圖,SW-LK Conv由一個大核空間分區(qū)卷積和一個可學(xué)習(xí)的 Position Encodings 組成。Position Encodings 用于彌補大卷積核的細節(jié)捕獲能力。

1e595c4e-d40b-11ed-bfe3-dac502259ad0.png

空間大核卷積 (SW-LK Conv) 的結(jié)構(gòu)

實驗

首先比較了普通 3D 子流形稀疏卷積與本文卷積之間的效率,隨著卷積核增大,普通3D卷積的參數(shù)量和延遲都急劇上升,而本文的方法效率要高得多。

1e8c5c66-d40b-11ed-bfe3-dac502259ad0.png

普通 3D 稀疏卷積與本文的 SW-LK Conv 之間的效率比較

作者在 3D 分割和檢測兩個下游任務(wù)上,進行了驗證。檢測任務(wù)使用的是 nuScenes(左), Waym (右)兩個數(shù)據(jù)集,對比情況如下,可以看到使用LargeKernel3D ,精度最高。其中,LargeKernel3D 將 CenterPoint 提高到 70.6% 和 72.8% NDS,無論有沒有進行測試增強,兩者都優(yōu)于其他的 LIDAR 方法。多模態(tài)模態(tài) LargeKernel3DF 進一步提高到 74.2% NDS 和 71.2% mAP。

1eb1ec10-d40b-11ed-bfe3-dac502259ad0.png

檢測任務(wù)對比情況

下面是分割任務(wù)上的對比情況,在測試集上,本文方法達到SOTA。MinkowskiNet 是 ScanNetv2 中最先進的方法, SW-LK Conv(本文方法) 進一步提高了它的性能。

1f1263f6-d40b-11ed-bfe3-dac502259ad0.png

ScanNetv2 mIoU 在 3D 語義分割上的比較。

然后是消融實驗,作者對MinkowskiNet-34 和 ScanNetv2 上各種技術(shù)和核大小等進行了實驗,LargeKernel3D 是有效的。

1f504388-d40b-11ed-bfe3-dac502259ad0.png

消融實驗

結(jié)論 Conclusion

這篇論文與 2D CNN 中的大卷積核有本質(zhì)區(qū)別,深入研究了 3D 卷積網(wǎng)絡(luò)的大卷積的設(shè)計。所提的專為 3D 大內(nèi)核設(shè)計的空間分區(qū)卷積 (SW Conv),有效地解決了普通 3D 大核 CNN 中的效率和優(yōu)化問題?;谶@種設(shè)計,進一步提出了用于 3D 語義分割和對象檢測的 SW-LK Conv 和相應(yīng)的 LargeKernel3D。

這種3D 大核網(wǎng)絡(luò)在語義分割和目標檢測任務(wù)上都取得了不錯的改進,并首次展示了可以高效且有效地實現(xiàn) 3D 大內(nèi)核。但是本文方法也存在局限性,例如 LargeKernel3D 在 3D 語義分割和對象檢測基準測試中主要依賴于手工設(shè)計的空間內(nèi)核大小。這些大小對于其他數(shù)據(jù)集或任務(wù)可能不是最優(yōu)的,具體取決于整體場景大小和數(shù)據(jù)稀疏性。其他基于ENAS等搜索技術(shù)可能會有幫助,可以嘗試一下。






審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • SGC
    SGC
    +關(guān)注

    關(guān)注

    0

    文章

    2

    瀏覽量

    6048
  • LiDAR芯片
    +關(guān)注

    關(guān)注

    1

    文章

    17

    瀏覽量

    3198
  • 卷積網(wǎng)絡(luò)
    +關(guān)注

    關(guān)注

    0

    文章

    42

    瀏覽量

    2143

原文標題:CVPR 2023 | LargeKernel3D:在3D稀疏CNN中使用大卷積核

文章出處:【微信號:GiantPandaCV,微信公眾號:GiantPandaCV】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    基于3D數(shù)據(jù)卷積神經(jīng)網(wǎng)絡(luò)的物體識別

    FusionNet的核心是全新的、應(yīng)用于3D物體的三維卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks, CNN)。我們必須在多個方面調(diào)整傳統(tǒng)的CNN以使其有效
    發(fā)表于 01-16 16:36 ?3641次閱讀
    基于<b class='flag-5'>3D</b>數(shù)據(jù)<b class='flag-5'>卷積</b>神經(jīng)網(wǎng)絡(luò)的物體識別

    3D打印技術(shù)及應(yīng)用: 3D打印工藝的分類#3d打印

    3D打印
    學(xué)習(xí)硬聲知識
    發(fā)布于 :2022年11月10日 22:04:40

    LabVIEW中使3D控件

    LabVIEW中使3D控件是可以使用自帶的繪圖vi,也可以從CAD軟件中導(dǎo)入,LabVIEW支持導(dǎo)入的外部格式有ASE格式,WRL格式和STL格式(附件圖1),ASE格式
    發(fā)表于 10-27 15:17

    浩辰3D軟件中如何創(chuàng)建槽特征?3D模型設(shè)計教程!

    浩辰3D軟件中使用槽命令時:1、使用轉(zhuǎn)到快速命令將順序建模槽特征轉(zhuǎn)換為快速建模模式。移動順序建模槽特征之后,仍然可以快速建模模式下編輯該特征。2、使用槽選項對話框指定槽的定義???/div>
    發(fā)表于 09-28 16:16

    浩辰3D的「3D打印」你會用嗎?3D打印教程

    ,從而幫助設(shè)計工程師快速設(shè)計、試制復(fù)雜曲面、異形結(jié)構(gòu)以及非標零部件,高效推進新產(chǎn)品的設(shè)計研發(fā)與設(shè)計驗證。1、模型處理浩辰3D中打開模型文件,選擇「3D打印」選項卡,將模型上的裝飾螺紋換成物理螺紋。2
    發(fā)表于 05-27 19:05

    TCL 3D電視閃亮CEF 3D電視2010真的“火”了

    TCL 3D電視閃亮CEF 3D電視2010真的“火”了   3D電視機去年已經(jīng)嶄露頭角,它能否借《阿凡達》之勢今年大行其道呢?
    發(fā)表于 04-12 16:59 ?993次閱讀

    3D打印巨頭現(xiàn)身CES 2013,力推家用3D打印機

    傳統(tǒng)的3D打印技術(shù),都是應(yīng)用于工業(yè)。但是近兩年來不斷升溫的家庭、個人用3D打印,也吸引了3D打印巨頭3D Systems(股票代碼NYSE:DDD)的注意,
    發(fā)表于 01-11 09:39 ?1434次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)(CNN無人駕駛中應(yīng)用的3D感知與物體檢測

    無人駕駛的感知部分作為計算機視覺的領(lǐng)域范圍,也不可避免地成為CNN發(fā)揮作用的舞臺。本文是無人駕駛技術(shù)系列的第八篇,深入介紹CNN卷積神經(jīng)網(wǎng)絡(luò))無人駕駛
    發(fā)表于 11-16 12:53 ?1.6w次閱讀
    <b class='flag-5'>卷積</b>神經(jīng)網(wǎng)絡(luò)(<b class='flag-5'>CNN</b>)<b class='flag-5'>在</b>無人駕駛中應(yīng)用的<b class='flag-5'>3D</b>感知與物體檢測

    基于3D-CNN的無參考視頻質(zhì)量評價方法

    無參考視頻質(zhì)量評價(NR-VQA)無法獲得原始高質(zhì)量視頻參照的前提下,對失真視頻的視覺質(zhì)量進行定量度量.常規(guī)NR-VQA方法通常針對特定失真類型設(shè)計,或者與人的主觀感受存在偏差.首次將3D深度卷積
    發(fā)表于 01-03 10:18 ?2次下載

    3D卷積神經(jīng)網(wǎng)絡(luò)的手勢識別

    傳統(tǒng)2D卷積神經(jīng)網(wǎng)絡(luò)對于視頻連續(xù)幀圖像的特征提取容易丟失目標時間軸上的運動信息,導(dǎo)致識別準確度較低。為此,提出一種基于多列深度3D卷積神經(jīng)網(wǎng)絡(luò)(3D
    發(fā)表于 01-30 13:59 ?2次下載
    <b class='flag-5'>3D</b><b class='flag-5'>卷積</b>神經(jīng)網(wǎng)絡(luò)的手勢識別

    MIT:使用深度卷積神經(jīng)網(wǎng)絡(luò)提高稀疏3D激光雷達的分分辨率

    為了提高稀疏3D激光雷達捕獲點云的分辨率,MIT的研究人員通過研究,將這個問題從3D問題轉(zhuǎn)換為2D圖像空間中的圖像超分辨率問題,使用深度卷積
    發(fā)表于 05-17 09:47 ?1899次閱讀

    3D的感知技術(shù)及實踐

    測量表面法向量估計 幾何測量平面提取 3D重建從離散點云得到光滑曲面 3D重建ICP點云配準 3D重建SDF表面重建 應(yīng)用例子:從稀疏的點云中,構(gòu)造出可以
    的頭像 發(fā)表于 10-23 09:40 ?3100次閱讀
    <b class='flag-5'>3D</b>的感知技術(shù)及實踐

    基于圖卷積的層級圖網(wǎng)絡(luò)用于基于點云的3D目標檢測

    (例如稀疏性),所以一些關(guān)鍵的語義信息(如物體形狀)不能被很好的捕捉到。本文提出了一種基于層級圖網(wǎng)絡(luò)(HGNet)的 圖卷積 (GConv),可以直接將點云作為輸入來預(yù)測 3D 的邊界框。形狀注意圖
    的頭像 發(fā)表于 06-21 12:15 ?5937次閱讀
    基于圖<b class='flag-5'>卷積</b>的層級圖網(wǎng)絡(luò)用于基于點云的<b class='flag-5'>3D</b>目標檢測

    3D姿態(tài)估計 時序卷積+半監(jiān)督訓(xùn)練

    在這項工作中,視頻中的3D姿態(tài)可以通過全卷積模型來估計,具體是二維關(guān)鍵點上通過空洞時間卷積的模型得到3D姿態(tài)。我們還介紹了一種不...
    的頭像 發(fā)表于 12-08 22:54 ?866次閱讀

    CCV 2023 | SparseBEV:高性能、全稀疏的純視覺3D目標檢測器

    本文介紹3D 目標檢測領(lǐng)域的新工作:SparseBEV。我們所處的 3D 世界是稀疏的,因此稀疏 3D
    的頭像 發(fā)表于 09-19 10:00 ?830次閱讀
    CCV 2023 | SparseBEV:高性能、全<b class='flag-5'>稀疏</b>的純視覺<b class='flag-5'>3D</b>目標檢測器