0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

點云深度學習方法的最新進展綜述

3D視覺工坊 ? 來源:笑傲算法江湖 ? 作者:單博 ? 2022-12-09 09:21 ? 次閱讀

0 摘要

點云學習(Point cloud learning)因其在計算機視覺、自動駕駛機器人等領(lǐng)域的廣泛應用而受到越來越多的關(guān)注。深度學習作為人工智能的主流技術(shù),已經(jīng)成功地應用于解決各種2D視覺問題。然而,由于用深度神經(jīng)網(wǎng)絡處理點云所面臨的獨特挑戰(zhàn),點云的深度學習仍處于起步階段。 最近,關(guān)于點云的深入學習變得更加繁榮,有許多方法被提出來,解決這一領(lǐng)域的不同問題。為了促進未來的研究,本文綜述了點云深度學習方法的最新進展。包括三個主要任務,3D分類、3D目標檢測與跟蹤和3D點云分割。

1 Introduction

隨著3D采集技術(shù)的快速發(fā)展,3D傳感器變得越來越可用且價格實惠,包括各種類型的3D掃描儀、激光雷達和RGB-D相機(如Kinect、RealSense和Apple深度相機)。這些傳感器獲取的三維數(shù)據(jù)可以提供豐富的幾何、形狀和比例信息。借助于二維圖像,三維數(shù)據(jù)為更好地了解機器周圍環(huán)境提供了機會。三維數(shù)據(jù)在不同領(lǐng)域有著廣泛的應用,包括自動駕駛、機器人技術(shù)、遙感和醫(yī)療。 三維數(shù)據(jù)通??梢杂貌煌母袷奖硎?,包括深度圖像、點云、網(wǎng)格和體積網(wǎng)格。點云表示作為一種常用的表示格式,在三維空間中保留了原始的幾何信息,而不需要進行任何離散化。因此,它是許多場景理解相關(guān)應用的首選表示,如自主駕駛和機器人技術(shù)。近年來,深度學習技術(shù)已成為計算機視覺、語音識別、自然語言處理等領(lǐng)域的研究熱點。然而,三維點云的深度學習仍然面臨著幾個重大的挑戰(zhàn),如數(shù)據(jù)集的小規(guī)模、高維性和三維點云的非結(jié)構(gòu)化性質(zhì)。在此基礎上,重點分析了用于三維點云處理的深度學習方法。點云的深度學習越來越受到人們的關(guān)注,特別是近五年來。還發(fā)布了一些公開數(shù)據(jù)集,例如ModelNet、ScanObjectNN、ShapeNet、PartNet、S3DIS、ScanNet、Semantic3D、ApololCar3D和KITTI Vision基準套件。這些數(shù)據(jù)集進一步推動了三維點云深度學習的研究,越來越多的方法被提出來解決與點云處理相關(guān)的各種問題,包括三維形狀分類、三維目標檢測與跟蹤、三維點云分割、三維點云配準等,六自由度姿態(tài)估計和三維重建。關(guān)于三維數(shù)據(jù)的深度學習的調(diào)查也很少,我們的論文是第一次專門關(guān)注點云理解的深度學習方法。圖1顯示了現(xiàn)有的點云學習方法。

57843af6-775f-11ed-8abf-dac502259ad0.png

圖1:三維點云深度學習方法的分類

2 BACKGROUND

2.1 Datasets

分類數(shù)據(jù)集主要分為:合成數(shù)據(jù)集[6], [8]和真實場景數(shù)據(jù)集[7], [11];

檢測與跟蹤數(shù)據(jù)集主要分為:室內(nèi)[11], [25]的和室外[14], [28], [30], [31];

分割數(shù)據(jù)集主要分為:移動式激光掃描儀(MLS)[15],[34],[36],航空激光掃描儀(ALS)[33],[38],靜態(tài)地面激光掃描儀(TLS) [12], RGB-D 相機[11]和其他3D掃描儀[10]。

579d56f8-775f-11ed-8abf-dac502259ad0.png

表1:數(shù)據(jù)集匯總

2.2 評估方式

分類任務的主要指標:Overall Accuracy (OA) 和 mean class accuracy (mAcc)

檢測任務的主要指標:Average Precision (AP)

單目標跟蹤的主要指標:Precision 和 Succes

多目標跟蹤的主要指標:Average Multi-Object Tracking Accuracy (AMOTA) 和 Average Multi-Object Tracking Precision (AMOTP)

分割任務的主要指標:OA, mean Intersection over Union (mIoU) 和 mean class Accuracy (mAcc),另外也有 mean Average Precision (mAP)

3 3D分類

此任務的方法通常是先學習每個點的嵌入,然后使用聚合方法從整個點云中提取全局形狀嵌入。最后通過將全局嵌入嵌入到幾個完全連通的層中來實現(xiàn)分類。根據(jù)神經(jīng)網(wǎng)絡輸入的數(shù)據(jù)類型,現(xiàn)有的三維形狀分類方法可分為基于多視圖、基于體積和基于點的方法。如圖2。

57db9a3a-775f-11ed-8abf-dac502259ad0.png

圖2:3D分類方法 基于多視圖的方法將非結(jié)構(gòu)化點云投影到二維圖像中,而基于體積的方法將點云轉(zhuǎn)換為三維體積表示。然后,利用成熟的二維或三維卷積網(wǎng)絡實現(xiàn)形狀分類。相比之下,基于點的方法直接在原始點云上工作,而不需要任何體素化或投影。基于點的方法不會引入顯性信息丟失并日益流行。

3.1 Multi-view based Methods

首先將一個三維圖形投影到多個視圖中,然后提取各個視圖的特征,然后融合這些特征進行精確的形狀分類。如何將多視圖特征聚合成一個有區(qū)別的全局表示是這些方法的一個關(guān)鍵挑戰(zhàn)。

MVCNN(Multi-view Convolutional Neural Networks for 3D Shape Recognition)(CVPR'15)是一個開創(chuàng)性的工作,它簡單地將多視圖特性匯集到一個全局描述符中。但是,最大池只保留特定視圖中的最大元素,從而導致信息丟失。

MHBN[41]通過協(xié)調(diào)bilin監(jiān)聽池集成局部卷積特征,生成一個緊湊的全局描述符。Yang等人[42]首先利用關(guān)系網(wǎng)絡在一組視圖上利用相互關(guān)系(如區(qū)域-區(qū)域關(guān)系和視圖-視圖關(guān)系),然后聚合這些視圖以獲得有區(qū)別的3D對象表示。此外,還提出了其他幾種方法[43],[44],[45],[46],以提高識別精度。

與之前的方法不同,Wei等人[47]通過將多個視圖作為grpah節(jié)點,在View-GCN中使用了有向圖。然后將由局部圖卷積、非局部消息傳遞和選擇性視圖采樣組成的核心層應用于構(gòu)建的圖。最后,將所有級別的最大池節(jié)點特征串聯(lián)起來,形成全局形狀描述符。

3.2 Volumetric-based Methods

通常將點云體素化為三維網(wǎng)格,然后將三維卷積神經(jīng)網(wǎng)絡(CNN)應用于體表示進行形狀分類。

VoxNet(IROS'15)[48]: A 3D convolutional neural network for real-time object recognition(VoxNet)網(wǎng)絡、基于卷積深度的三維形狀網(wǎng),雖然已經(jīng)取得了令人鼓舞的性能,但由于計算量和內(nèi)存占用隨著分辨率的增加而呈立方體增長,因此這些方法無法很好地適應密集的三維數(shù)據(jù)。

Wu等人[6]提出了一種基于卷積深度信念的3D shapenet,從各種3D形狀(由二進制變量在體素網(wǎng)格上的概率分布表示)中學習點的分布。

盡管已經(jīng)取得了令人鼓舞的性能,但由于計算和內(nèi)存占用隨著分辨率的增加呈立方體增長,這些方法無法很好地擴展到密集的3D數(shù)據(jù)。

3.3 Point-based Methods

基于網(wǎng)絡結(jié)構(gòu)的不同,這類方法可以被分為以下幾類,包括:點光滑的MLP(PointWise);基于卷積的方法;基于圖的方法;基于數(shù)據(jù)索引的方法以及其它網(wǎng)絡。

3.3.1 Pointwise MLP Methods

使用多個共享多層感知器(MLP)獨立地對每個點建模,然后使用對稱聚合函數(shù)聚合全局特征,如圖3所示。典型的二維圖像深度學習方法由于其固有的數(shù)據(jù)不規(guī)則性而不能直接應用于三維點云。

57f1e876-775f-11ed-8abf-dac502259ad0.png

圖3:PointNet的輕量級架構(gòu)。n表示輸入點的個數(shù),M表示每個點學習特征的維數(shù)

PointNetPointNet: Deep learning on point sets for 3D classification and segmentation(PointNet) 直接以點云作為輸入并實現(xiàn)對稱函數(shù)的置換不變性。PointNet使用幾個MLP層獨立地學習點態(tài)特征,并使用最大池化層提取全局特征。由于PointNet中每個點的特征都是獨立學習的,因此無法獲取點之間的局部結(jié)構(gòu)信息。

PointNet++因此,提出了一種層次網(wǎng)絡pointnet++來從每個點的鄰域中捕捉精細的幾何結(jié)構(gòu)。作為PointNet++層次結(jié)構(gòu)的核心,其集合抽象層由三層組成:采樣層、分組層和基于PointNet的學習層。通過疊加多個集合抽象層次,pointnet++從局部幾何結(jié)構(gòu)中學習特征,并逐層抽象局部特征。

由于PointNet[5]的簡單性和較強的表示能力,許多網(wǎng)絡都是基于它開發(fā)的。Mo-Net[55]的架構(gòu)類似于PointNet[5],但它采用有限的力矩集作為其輸入。Ponit Attention Transformer(PATs)[56]用它自己的絕對位置和相對于相鄰點的相對位置表示每個點,并通過MLP學習高維特征。然后,利用分組洗選注意(GSA)捕獲點之間的關(guān)系,并開發(fā)一個排列不變、可微、可訓練的端到端岡貝爾子集采樣(GSS)層來學習層級的度量特征。PointWeb[57] uti在pointnet++[54]的基礎上,對局部鄰域的上下文進行處理,使用自適應特征調(diào)整(AFA)改進點特征。Duan等人[58]提出了一種結(jié)構(gòu)關(guān)系網(wǎng)絡(SRN)利用MLP學習不同局部結(jié)構(gòu)之間的結(jié)構(gòu)關(guān)系特征。Lin等人[59]通過為PointNet學習的輸入空間和函數(shù)空間構(gòu)建查找表,加快了推理過程。ModelNet和ShapeNet數(shù)據(jù)集上的推理時間比中等機器上的PointNet加快了1.5 ms和32倍。SRINet[60]首先投射一個點云以獲得旋轉(zhuǎn)不變表示,然后利用基于pointnet的骨干網(wǎng)提取全局特征,并利用基于圖的聚合提取局部特征。在PointASNL中,Yan等[61]利用自適應采樣(Adaptive Sampling, AS)模塊自適應調(diào)整由最遠點采樣(FPS)算法采樣的點的坐標和特征,并提出了local-non-local (L-NL)模塊來捕獲這些采樣點的本地和遠程依賴關(guān)系。

3.3.2 Convolution-based Methods

與二維網(wǎng)格結(jié)構(gòu)(如圖像)上定義的卷積核相比,由于點云的不規(guī)則性,三維點云的卷積核很難設計。根據(jù)卷積核的類型,目前的三維卷積方法可分為連續(xù)卷積法和離散卷積法,如圖4所示。

58155662-775f-11ed-8abf-dac502259ad0.png

圖4:一個點的局部鄰域的連續(xù)和離散卷積的圖示。(a)表示以點p為中心的局部鄰域qi;(b)和(c)分別表示三維連續(xù)卷積和離散卷積

3D Continuous Convolution Methods

這類方法在連續(xù)的空間中定義卷積核,其中鄰居點的權(quán)重與它和中心點的空間分布有關(guān)。3D卷積可被認為是在給定子集上的加權(quán)。MLP是一種簡單的學習權(quán)重的方法。作為RS-CNN[62]的核心層,RS-Conv將某個點周圍的局部子集作為其輸入,使用MLP的方法來進行卷積,學習低維關(guān)系到高維關(guān)系的映射。(“And the convolution is implemented using an MLP by learning the mapping from low-level relations to high-level relations between points in the local subset”)。在[63]中,卷積核的元素是在單位球中隨機選取的,接著使用基于MLP的連續(xù)函數(shù)來確定核元素的位置與點云的關(guān)系。在DensePoint[64]中,卷積被定義為單層感知機(Single-Layer Perceptron)。某層的特征是將其之前所有層的特征級聯(lián)起來,從而使得空間信息被充分利用。Thomas等人[65]使用一組可學習的核點,提出了三維點云的剛性和變形核點卷積(KPConv)算子。ConvPoint[66]將卷積核分為空間部分和特征部分。空間部分的位置從一個單位球中隨機選擇,并通過一個簡單的MLP學習權(quán)重函數(shù)。 有些方法使用已有的算法來進行卷積。在PointConv[67]中,卷積被定義為對重要性采樣的連續(xù)3D卷積的蒙特卡洛估計。卷積核由加權(quán)函數(shù)(由MLP層學到)和密度函數(shù)(由核密度估計和MLP層學到)組成。為了提升內(nèi)存和計算效率,3D卷積被簡化成兩部分:矩陣乘法和2D卷積,在相同的參數(shù)設置下,內(nèi)存消耗可減小64倍。在MCCNN[68]中,卷積被當做是蒙特卡洛估計的過程(依賴樣本的密度函數(shù),用MLP實現(xiàn)),使用泊松圓盤采樣(Poisson disk sampling)來構(gòu)建點云等級。該卷積算子可用于在兩個或多個采樣方法之間進行卷積,并可處理不同的采樣密度。在SpiderCNN[69]中,SpiderConv提出將卷積定義為階躍函數(shù)與定義在k個最近鄰居上的泰勒展開的乘積。階躍函數(shù)通過編碼局部測地線距離來捕獲粗幾何,而泰勒展開通過在立方體的頂點插入任意值來捕獲固有的局部ge度量變化。此外,還提出了一種基于徑向的三維點云卷積網(wǎng)絡PCNN[70]基函數(shù)。 針對三維卷積網(wǎng)絡所面臨的旋轉(zhuǎn)等變問題,提出了幾種解決方法。Esteves等人[71]提出了3D球形CNN來學習3D形狀的旋轉(zhuǎn)等變表示,該方法以多值球形函數(shù)為輸入。通過在球面調(diào)和域上用錨點參數(shù)化譜,得到了局部卷積濾波器。張量場網(wǎng)絡[72]被用來定義點卷積運算為可學習的徑向函數(shù)和球面諧波的乘積,球面諧波與三維旋轉(zhuǎn)、平移和排列具有局部等變性。[73]中的卷積是基于球面互相關(guān)定義的,并使用廣義快速傅立葉變換(FFT)算法實現(xiàn)。SPHNet[74]基于PCNN,通過在體積函數(shù)卷積過程中加入球形諧波核來實現(xiàn)旋轉(zhuǎn)不變性。 為了加快計算速度,F(xiàn)lex-Convolution[75]將卷積核的權(quán)重定義為對k個最近鄰的標準標量積,可以使用CUDA進行加速。實驗結(jié)果表明,該算法在參數(shù)較少、內(nèi)存消耗較低的小數(shù)據(jù)集上具有較好的性能。

3D Discrete Convolution Methods

在規(guī)則網(wǎng)格上定義卷積核,其中相鄰點的權(quán)重與相對于中心點的偏移量(offset)有關(guān)。 [76]將非歸一化的點云變換至歸一化的網(wǎng)格,接著在各個網(wǎng)格上定義卷積核。與2D卷積不同(在各個像素上分配權(quán)重),所提的3D卷積核在網(wǎng)格內(nèi)的所有點賦予相同的權(quán)重。對于給定點,鄰域內(nèi)所有點(在相同網(wǎng)格上)的平均特征通過之前的層來計算得到。接著,所有網(wǎng)格的平均特征通過加權(quán)和產(chǎn)生當前層的輸出。[77]定義了球狀的卷積核,通過將3D球體鄰域分成多個體素bins,并且將各個bin通過學到的加權(quán)矩陣聯(lián)系到一起。球狀卷積核的輸出由其鄰域點的加權(quán)均值 通過非線性激活層得到。在GeoConv[78]中,一個點與其相鄰點之間的幾何關(guān)系是基于六個基顯式建模的。沿基的每個方向的邊緣特征由方向相關(guān)的可學習矩陣獨立加權(quán)。這些方向相關(guān)的特征然后根據(jù)給定點及其相鄰點形成的角度進行聚合。對于一個給定的點,它在當前層的特征被定義為給定點的特征及其上一層相鄰邊緣特征的和。PointCNN[79]通過χ-conv trans(通過MLP實現(xiàn))將輸入點轉(zhuǎn)換為潛在的和潛在的規(guī)范順序,然后對轉(zhuǎn)換后的特征應用典型的卷積算子。Zhang等人[81]提出了一種RIConv算子來實現(xiàn)在方差中進行旋轉(zhuǎn),該算子以低級旋轉(zhuǎn)不變的幾何特征為輸入,然后通過簡單的bin方法將卷積轉(zhuǎn)化為1D。A-CNN[82]通過在查詢點的每個環(huán)上按內(nèi)核大小循環(huán)近鄰數(shù)組來定義環(huán)形卷積,并學習局部子集中近鄰點之間的關(guān)系。 為了降低3D CNNs的計算和存儲成本,Kumawat等人[83]提出了一種基于3D短期傅里葉變換(STFT)的校正局部相位體積(ReLPV)塊,用于在3D局部鄰域中提取相位,該塊顯著減少了參數(shù)的數(shù)量。在SFCNN[84]中,點云被投影到具有對齊球坐標的正則型二十面體格上。然后通過卷積-maxpool -卷積結(jié)構(gòu)對球面格的頂點及其鄰近點拼接的特征進行卷積。SFCNN抗旋轉(zhuǎn)和擾動。

3.3.3 Graph-based Methods

將點云中的每個點看作圖的頂點,并根據(jù)每個點的鄰域生成有向邊。然后在空間或光譜域中進行特征學習。典型的基于圖的網(wǎng)絡如圖5所示。

582c9a20-775f-11ed-8abf-dac502259ad0.png

圖5:基于圖網(wǎng)絡

空間域中的基于圖的方法

這類方法在空間域中定義卷積和池化操作。卷積通過在空間鄰域內(nèi)的MLP實現(xiàn),池化操作通過集成信息產(chǎn)生新的較粗的圖。各個頂點的特征由坐標、激光強度、顏色來確定,各個邊的特征由兩個連接點的幾何屬性確定。 作為先驅(qū)工作,[85]將各個點視為圖的頂點,利用有向邊將頂點與其鄰域內(nèi)的點相連,接著使用Edge-Condition Convolution(使用生成filter的網(wǎng)絡得到,MLP等)。最大池化用來集成鄰域信息,圖的粗化使用VoxelGrid[86]算法得到。首先通過卷積和池化的相互交錯,再跟著為全局平均池化和全連接層來產(chǎn)生分類score。 在DGCNN[87]中,在特征空間中構(gòu)造一個圖,并在網(wǎng)絡的每一層之后動態(tài)更新。MLP作為EdgeConv的核心層,被用作每條邊緣的特征學習函數(shù),通道對稱聚合應用于與每個點的鄰居相關(guān)聯(lián)的邊緣特征。此外,LDGCNN[88]去掉了轉(zhuǎn)換網(wǎng)絡,并將DGCNN[87]中來自不同層的hier—度量特征連接起來,以提高其性能并減小模型尺寸。還提出了端到端無監(jiān)督深度AutoEncoder網(wǎng)絡(即FoldingNet[89]),該網(wǎng)絡使用向量化局部協(xié)方差矩陣和點坐標的拼接作為輸入。受Inception[90]和DGCNN[87]的啟發(fā),Hassani和Haley[91]提出了一種無監(jiān)督的多節(jié)點任務自動編碼器來學習點和形狀特征。編碼器是基于多尺度圖構(gòu)造的。該譯碼器使用三元非監(jiān)督任務(包括聚類、自監(jiān)督分類和偵察構(gòu)造)構(gòu)建,并與多任務損失聯(lián)合訓練。Liu等[92]提出了一種基于圖卷積的動態(tài)點聚集模塊(DPAM),將點聚集(采樣、分組和池化)的過程簡化為一個簡單的步驟,該過程通過聚集矩陣和點特征矩陣的乘法實現(xiàn)。在點網(wǎng)體系結(jié)構(gòu)的基礎上,通過堆疊多個DPAM來構(gòu)建一個層次化的學習體系結(jié)構(gòu)。與Pointnet++ [54]的層次結(jié)構(gòu)策略相比,DPAM動態(tài)地利用了點之間的關(guān)系,并在語義空間中聚合了點。 為了利用局部幾何結(jié)構(gòu),KCNet[93]基于核相關(guān)學習特征。具體地說,描述局部結(jié)構(gòu)幾何類型的一組可學習點被定義為核。然后,計算了核與給定點鄰域之間的親和度。在G3D[94]中,將卷積定義為鄰接矩陣多項式的變體,將池化定義為將拉普拉斯矩陣和verutx矩陣乘以一個粗化矩陣。ClusterNet[95]利用一個嚴格的旋轉(zhuǎn)不變量模塊,從每個點的k個最近鄰居中提取旋轉(zhuǎn)不變量的特征,并基于無監(jiān)督凝聚層次聚類方法構(gòu)建點云的層次結(jié)構(gòu)[96]。每一個的特性子集群首先通過EdgeConv塊學習,然后通過最大池聚集。 為了解決當前數(shù)據(jù)結(jié)構(gòu)方法(如FPS和鄰居點查詢)耗時的問題,Xu等人[97]提出融合基于體積和基于點的方法的優(yōu)點,以提高計算效率。在ModelNet分類任務上的實驗表明,所提出的Grid-GCN網(wǎng)絡的計算效率比其他模型平均提高5倍。

譜域中的基于圖的方法

這類方法將卷積定義為譜的濾波,是通過在圖上的拉普拉斯矩陣的特征向量上的乘法來實現(xiàn)的[98][99]。與上述方法不同的是,RGCNN[100]將點云中的點與其余所有的點相連得到圖,接著在各層當中更新圖的拉普拉斯矩陣。為了使相鄰頂點的特征更加相似,圖信號光滑的先驗被加入到了損失函數(shù)中。為了解決數(shù)據(jù)的不同圖拓撲結(jié)構(gòu)帶來的挑戰(zhàn),AGCN[101]中的SGC-LL層利用一個可學習距離度量來參數(shù)化圖上兩個頂點之間的相似性。利用高斯核和學習距離歸一化了從圖中得到的鄰接矩陣。HGNN[102]通過在超圖上應用頻譜卷積來構(gòu)建超邊卷積層。 上述方法都是在全圖上操作的。為了利用詳細的局部結(jié)構(gòu)信息,Wang等人[103]提出了一種端到端光譜卷積網(wǎng)絡LocalSpecGCN,用于處理局部圖(由k個最近鄰構(gòu)建)。該方法不需要對圖的拉普拉斯矩陣和圖的層次結(jié)構(gòu)進行離線計算。在PointGCN[104]中,基于點云的k個最近鄰居構(gòu)建了一個圖,并且使用高斯核對每條邊進行加權(quán)。卷積函數(shù)定義為圖譜域中的切比雪夫多項式。全局池和多分辨率池用于捕獲點云的全局和局部特征。Pan等人[105]通過對譜域中k個最近鄰圖進行卷積,提出了3DTI-Net。對幾何變換的不變性是通過學習相對歐氏距離和方向距離來實現(xiàn)的。

3.3.4 Hierarchical Data Structure-based Methods

基于索引數(shù)據(jù)的網(wǎng)絡是基于不同的數(shù)據(jù)索引結(jié)構(gòu)(八叉樹、KD樹)構(gòu)建的。在這類方法中,點的特征是從葉節(jié)點到根節(jié)點中分級學習的道德。 [77]提出了八叉樹導向的CNN,利用了球狀卷積核。網(wǎng)絡中的每一層對應八叉樹的一層,球狀的卷積核在各層中均使用。當前神經(jīng)元的值是:在之前層中相關(guān)的子節(jié)點的均值。而Kd-Net[106]由多重的K-d樹構(gòu)成,這些K-d樹在每次迭代時有著不同的分裂方向。根據(jù)從下到上的方法,非葉節(jié)點的表示是由其子節(jié)點通過MLP計算得到的。根節(jié)點的特征(描述整個點云)最終被送入至全連接層來得到分類輸出。值得注意的是,Kd-Net在各級之間共享參數(shù)。3DContextNet[107]使用標準的平衡K-d樹進行特征提取和集成。 在每個級別上,點特征首先通過基于局部線索(模擬局部區(qū)域內(nèi)點之間的相互依賴關(guān)系)和全局上下文線索(模擬一個位置相對于所有其他位置的關(guān)系)的MLP學習。然后,利用MLP從子節(jié)點計算非葉節(jié)點的特征,并通過最大池化聚合。為了分類,重復上述過程,直到獲得根節(jié)點。SO-Net網(wǎng)絡的層次結(jié)構(gòu)是通過點到節(jié)點k次最近鄰搜索來構(gòu)建的[108]。具體而言,采用一種改進的排列不變自組織圖(SOM)來模擬點云的空間分布。通過一系列完全連接的層,從歸一化點到節(jié)點坐標中學習單個點的特征。SOM中每個節(jié)點的特征是使用通道最大池從與該節(jié)點相關(guān)的點特征中提取出來的。然后使用類似于PointNet[5]的方法從節(jié)點特征中學習最后一個特征。與Pointnet++[54]相比,SOM的層次結(jié)構(gòu)更加高效,充分挖掘了點云的空間分布。

3.3.5 Other Methods

此外,還提出了許多其他方案。RBFNet[113]通過聚集來自核位置和大小可學習的稀疏分布徑向基函數(shù)(RBF)核的特征,顯式地為點的空間分布建模。3DPointCapsNet[112]使用點式MLP和卷積層學習相關(guān)度為度量值為1 × 4的特征中的點,并使用多個最大池化層提取全局潛在表示。在無監(jiān)督動態(tài)路由的基礎上,學習了具有代表性的強潛在膠囊。Qin等人[116]提出了一種用于3D點云表示的端到端unsu授權(quán)域適應網(wǎng)絡PointDAN。為了捕捉點云的語義屬性,提出了一種自監(jiān)督方法來重構(gòu)點云,該點云的各個部分已經(jīng)進行了大規(guī)模重排[117]。Li等人[118]提出了一種自動擴充框架PointAugment,用于自動優(yōu)化和擴充用于網(wǎng)絡訓練的點云樣本。具體地說,每個輸入樣本的形狀變換和點位移都是自動學習的,網(wǎng)絡通過交替優(yōu)化和更新其可學習參數(shù)來訓練 增強器和分類器。受形狀上下文[119]的啟發(fā),Xie等人[109]提出了一種ShapeContextNet體系結(jié)構(gòu),將親和性點選擇和緊湊特征集合結(jié)合到使用點產(chǎn)品自注意的軟對齊操作中[120]。為了處理3D點云中的噪聲和遮擋,Bobkov等人[121]將手工制作的基于點對函數(shù)的4D旋轉(zhuǎn)不變描述子輸入到4D卷積神經(jīng)網(wǎng)絡中。Prokudin等[122]首先從單位球隨機采樣一個分布均勻的基點集,然后將點云編碼為到基點集的最小距離。因此,點云被轉(zhuǎn)換為一個相對較小的固定長度的向量。然后可以用現(xiàn)有的機器學習方法處理編碼后的表示。RCNet[115]利用標準RNN和2D CNN構(gòu)建了一個用于3D點云處理的排列不變網(wǎng)絡。首先將點云劃分為平行光束,并沿特定維度排序,然后將每個光束送入共享RNN。學習到的特征進一步被輸入到一個有效的2D CNN中,用于層次結(jié)構(gòu)的特征聚合。為了提高RCNet-E的描述能力,提出了將多個RCNets沿不同劃分和排序方向進行集成的方法。Point2Sequences[114]是另一個基于RNN的模型,它捕獲點云局部區(qū)域中不同區(qū)域之間的相關(guān)性。它將從多個尺度的局部區(qū)域?qū)W習到的特征視為序列,并將這些來自所有局部區(qū)域的序列輸入到基于RNN的編碼器-解碼器結(jié)構(gòu)中,以聚合局部區(qū)域的特征。 一些方法也可以從3D點云和2D圖像中學習。在PVNet[110]中,從多視點圖像中提取的高層次全局特征通過嵌入網(wǎng)絡投射到點云的子空間中,并通過軟注意掩碼與點云特征融合。最后,利用殘差連接對融合特征和多視圖特征進行形狀識別。隨后,進一步提出PVRNet[111],通過關(guān)系評分模塊來開發(fā)3D點云與其多個視圖之間的關(guān)系。在關(guān)系評分的基礎上,對二維全局視圖特征進行增強,實現(xiàn)點級的單視圖融合和點級的多視圖融合。

3.4 Summary

ModelNet10/40[6]數(shù)據(jù)集是3D形狀分類中最常用的數(shù)據(jù)集。表2顯示了不同基于點的網(wǎng)絡所獲得的結(jié)果??梢缘贸鲆韵聨c觀察:

點態(tài)MLP網(wǎng)絡通常作為其他類型網(wǎng)絡學習點態(tài)特征的基本構(gòu)建塊。

作為一種標準的深度學習架構(gòu),基于卷積的網(wǎng)絡可以在不規(guī)則的3D點云上獲得卓越的性能。對于不規(guī)則數(shù)據(jù)的離散卷積網(wǎng)絡和連續(xù)卷積網(wǎng)絡都應該給予更多的關(guān)注。

基于圖的網(wǎng)絡由于其固有的強大的數(shù)據(jù)處理能力,近年來受到越來越多的關(guān)注。然而,將譜域的基于圖的網(wǎng)絡擴展到各種圖結(jié)構(gòu)仍然是一個挑戰(zhàn)。

5845e76e-775f-11ed-8abf-dac502259ad0.png

表2

4 3D目標檢測與跟蹤

587429e4-775f-11ed-8abf-dac502259ad0.png

圖6:3D目標檢測

4.1 3D Object Detection

與普通2D中的目標檢測方法類似,3D中的目標檢測方法也可分為兩類:基于候選區(qū)域的方法和直接映射的方法。

588cdbc4-775f-11ed-8abf-dac502259ad0.png

圖7:3D目標檢測

4.1.1 Region Proposal-based Methods

這些方法首先產(chǎn)生一些可能包含物體的區(qū)域(Proposals),接著對各個區(qū)域提取特征,來決定各個候選區(qū)域的物體類別。 根據(jù)不同的產(chǎn)生候選區(qū)域的方法,這些方法可進一步分為三類:基于多視角的方法;基于分割的方法以及基于錐體的方法。

Multi-view based Methods

這類方法從不同的視角圖像(雷達前景圖,鳥瞰圖,圖像等)中融合各個候選框的特征,來產(chǎn)生3D旋轉(zhuǎn)盒。在[4]中,Chen等人從鳥瞰圖中產(chǎn)生一組準確的3D候選框,并且將其投影到其它視角中(雷達前景圖,RGB圖像),接著將各個區(qū)域的特征組合到一起,來預測有方向的3D bounding boxes。盡管這種方法在0.25IOU, 300個候選框設置時達到了99.1%的recall,但是速度非常慢。后續(xù)的基于多視角的3D物體檢測方法主要從以下兩個方面來提升。 (1)提出了很多方法來有效的融合不同模態(tài)之間的信息。為了針對小物體產(chǎn)生有較高recall的候選框,[126]提出了多模態(tài)的基于融合融合的區(qū)域生成網(wǎng)絡。首先從鳥瞰圖和普通圖像視角提取相同大小的特征,然后在各個元素位置使用了平均池化來融合特征。[127]利用了連續(xù)的卷積來進行圖像與3D雷達前景圖的特征融合。具體而言,他們對BEV(鳥瞰視角)空間中的每個點提取最近的對應點的圖像特征,接著通過將圖像特征投影至BEV空間的方法,使用雙線性插值得到稠密的BEV的特征圖。實驗結(jié)果證明稠密的BEV特征圖比起離散的圖像特征圖和LiDAR(雷達激光)特征圖更加適合3D物體檢測。[128]提出了多任務,多感知器的3D物體檢測網(wǎng)絡來進行端到端的訓練。具體而言,利用多種任務(2D物體檢測,背景估計,深度補償),幫助網(wǎng)絡學習到更好的特征表示。學習到的跨模態(tài)的表示,可進一步用來產(chǎn)生更準確的物體檢測結(jié)果。實驗證明這類方法在2D,3D,BEV識別任務上有著非常好的提升,在TOR4D基準[129, 130]上超越了之前的SOTA。 (2)其它的一些方法致力于提取更魯棒的表示。[39]通過引入空間Channel注意力機制模塊(Spatial Channel Attention Module),探索了多尺度的環(huán)境信息,其捕獲了全局的以及多尺度的場景環(huán)境,加強了有用的特征。同樣的,通過將不同尺度的低層次特征融合的方法,他們提出了Extension Spatial Unsample模塊來得到有著更豐富空間信息的高層次特征,接著來產(chǎn)生更可靠的3D物體候選框。盡管達到了更好的檢測效果,但上述所提的多視角方法都需要較長的運行時間,因為他們在各個候選框都進行了特征的池化。因此,[131]使用了提前的ROI池化卷積(pre-ROI pooling convolution)來提高[4]的效率。具體而言,他們將大部分的卷及操作移動到ROI pooling模塊之前。因此,對于所有的物體候選框,ROI卷積只使用一次。實驗結(jié)果顯示這類方法可達到11.1fps, 速度達到了MV3D[4]的5倍。

Segmentation-based Methods

這類方法首先利用現(xiàn)有的語義分割技術(shù)來移除多數(shù)的背景點,接著在前景點上,產(chǎn)生大量的高質(zhì)量的候選框來節(jié)約計算。與多視角的方法[4],[126],[131]相比,這類方法達到了更好的物體recall,并且更適合一些復雜的場景。 [132]中,Yang et al使用了2D的分割網(wǎng)絡來預測前景的像素并將其投影至點云中,以此來剔除掉多數(shù)的背景點。接著在這些前景點中生成候選框,并且設計了一種新的標準稱之為PointsIoU來減少候選框的冗余性和模棱兩可之處。跟著[132]的腳步,[133]提出了PointRCNN的框架。具體而言,他們直接對3D點云進行分割,得到前景點,并且將語義特征和局部空間特征融合從而得到高質(zhì)量的3D boxes。[143]跟著[122]中的RPN,提出了一種利用圖卷積網(wǎng)絡來進行3D物體檢測。具體而言,利用圖卷積,在此處引入了兩個模塊來修復物體的候選框。第一個模塊R-GCN利用一個候選框中的所有點,得到每個候選框的特征集成。第二個模塊C-GCN將所有候選框中的每一幀信息融合起來,利用環(huán)境來回歸準確的物體boxes。[135]將點云投影至基于圖像的分割網(wǎng)絡的輸出,將其附加至語義的預測值。通過將涂色的點送入至一些檢測器中[133,136,137],得到了顯著的性能提升。[138]將每個點與spherical anchor相關(guān)聯(lián),每個點的語義值用來移除多余的anchors。這樣的方法得到了更好的recall以及有著更小的計算消耗。與此同時,文中提出了PointsPool層,對候選框中的內(nèi)部點學習相容的特征,并且引入了并行的IOU來提高位置的準確度的檢測性能。

Frustum-based Methods

這類方法首先利用現(xiàn)有的2D物體檢測子,產(chǎn)生2D的候選矩形框,接著對每個2D的候選框提取3D的錐體候選框,如圖8(c)所示。盡管這類方法可以有效地給出3D物體的坐標,但step-by-step的pipeline使得性能受限(受限于2D圖像的檢測子)。F-PointNets[139]為此類方向的先驅(qū)工作。它在每個2D區(qū)域上產(chǎn)生錐形的候選框,并且應用PointNet[5]或PointNet++[54]來學習各個3D錐體的點云特征,從而進行3D box的估計。在隨后的工作中,[140]提出了Point-SENet模塊,來預測一系列的縮放因子,從而被用來突出有用特征和抑制無用特征。同時他們也將PointSIFT[141]模塊集成至網(wǎng)絡中,來獲取點云的方向信息,其可以得到對形狀尺度的強魯棒性。該方法在[14], [25]的數(shù)據(jù)集上,與F-PointNets [139]相比得到了顯著的提高。 方法[142]利用了2D圖像區(qū)域和對應的錐體點來回歸3D boxes。為了融合圖像特征和點云的全局特征,他們提出了全局的融合網(wǎng)絡來直接回歸box的角坐標。他們也提出了稠密的網(wǎng)絡網(wǎng)絡來預測各個點對于各個角的補償(offsets)。[143]第一次從2D圖像中估計2D的bounding boxes和3D物體姿態(tài),從而提取物體候選框。這類3D候選框被送入至box 回歸網(wǎng)絡來預測準確的3D物體boxes。[144]對于各個2D區(qū)域,在錐體軸上產(chǎn)生一系列的錐體,并使用PointNet來對各個錐體提取特征。錐體層次的特征用來產(chǎn)生2D特征圖,再被送入至FCN來估計3D box。該方法在基于2D圖像的方法中達到了state-of-the-art的性能,并且在KITTI積分榜上排在很靠前的位置。[145]首先在鳥瞰圖上得到初步的檢測結(jié)果,接著基于鳥瞰圖的預測結(jié)果,提取小部分點的子集,再應用局部的微調(diào)網(wǎng)絡來學習局部特征,預測高精度的3D bounding boxes。

Other Methods

受軸向IoU在圖像目標檢測中的成功激勵,Zhou等人[146]將兩個3D旋轉(zhuǎn)邊界盒的IoU集成到幾個先進的檢測器[133]、[137]、[158],以實現(xiàn)一致的性能改進。Chen等人[147]提出了一種兩階段網(wǎng)絡架構(gòu),可以同時使用點云和體素表示。首先,對點云進行體素化,并將點云輸入到三維骨干網(wǎng)中生成初始檢測結(jié)果。其次,進一步利用初始預測的內(nèi)點特征進行箱體細化。雖然這種設計在概念上很簡單,但在保持16.7 fps的速度的同時,它達到了與[133]相當?shù)男阅堋hi等人[148]提出了PointVoxel-RCNN(PV-RCNN),利用3D卷積網(wǎng)絡和基于PointNet的集合抽象來學習點云特征。具體來說,輸入點云首先體素化,然后輸入到三維稀疏卷積網(wǎng)絡中生成高質(zhì)量的提案。然后,通過體素集抽象模塊將學習到的體素相關(guān)特征編碼為一個小的關(guān)鍵點集。此外,他們還提出了一個關(guān)鍵點到網(wǎng)格的ROI抽象模塊,以捕獲豐富的上下文信息用于框細化。實驗結(jié)果表明,該方法的性能明顯優(yōu)于以往的方法,在KITTI三維檢測基準的Car類測試中排名第一。 受到Hough投票的二維物體探測器的啟發(fā),Qi等人[124]提出了VoteNet,直接從點云中對物體的虛擬中心點進行投票,并通過聚集投票特征生成一組高質(zhì)量的3D物體提議。VoteNet的性能明顯優(yōu)于之前僅使用幾何信息的方法,并在兩個大型室內(nèi)工作臺(即ScanNet[11]和SUN RGB-D[25])上實現(xiàn)了最先進的性能。然而,對于部分遮擋的物體,虛擬中心點的預測是不穩(wěn)定的。此外,F(xiàn)eng等人[149]增加了方向向量的輔助分支,以提高虛擬中心點和3D候選盒的預測精度。此外,建立了提案之間的三維對象-對象關(guān)系圖,強調(diào)了用于精確目標檢測的有用特征。Qi等人[150]提出了一種ImVoteNet檢測器,將2D對象檢測線索(如幾何和語義/紋理線索)融合到3D投票管道中。Shi等人[151]觀察到3D對象的ground truth box提供了對象內(nèi)部部分的精確位置,受到這一啟發(fā),提出了Part-A2 Net,該網(wǎng)絡由部分感知階段和部分聚合階段組成。部分感知階段采用類似UNet的[165]net工作,并帶有稀疏卷積和稀疏反褶積,以學習點級特征,用于預測和粗略生成對象內(nèi)部部件位置。零件聚合階段采用感知roi的池化來聚合預測的零件位置,進行箱體細化。

4.1.2 Single Shot Methods

這類方法使用單階段的網(wǎng)絡,直接預測類別概率和回歸物體的3D bounding boxes。這類方法不需要產(chǎn)生區(qū)域候選框和后處理。結(jié)果是,這類方法有著很快的速度,很適合實時的應用。根據(jù)輸入數(shù)據(jù)的形式,single shot方法可分為兩類:基于鳥瞰圖的方法和基于點云的方法。

BEV-based Methods

基于鳥瞰圖的方法將BEV表示作為輸入。[129]將場景的點云離散化,使用FCN來預測位置和物體的航向角。該方法超越了大多數(shù)的single shot方法(VeloFCN [154], 3D-FCN [155] 和 Vote3Deep [156])并且達到了28.6fps。之后,[152]利用HP map提供的幾何和語義先驗信息,提高了[129]的魯棒性和檢測性能。具體來說,他們從HD地圖上獲取地面點的坐標,然后用相對于地面的距離進行BEV表示,以彌補由于道路坡度引起的平移方差。此外,他們沿著通道維度將二元道路掩模與BEV表示連接起來,以聚焦于移動的物體。因為不是所有地方都有高清地圖,所以它們也提出了一種在線地圖預測模塊,用于從單個LiDAR點云中估計地圖先驗。該地圖感知方法在TOR4D[129]、[130]和KITTI[14]數(shù)據(jù)集上的表現(xiàn)明顯優(yōu)于基線。但對不同密度點云的概化性能較差。為了解決這個問題,Beltr′an等人[153]提出了一種考慮差異的歸一化圖在不同的激光雷達傳感器之間。歸一化映射是一個與BEV映射具有相同分辨率的2D網(wǎng)格,它對每個單元格中包含的最大點數(shù)進行編碼。結(jié)果表明,該歸一化映射顯著提高了基于BEV的檢測器的泛化能力。

Discretization-based Methods

離散化方法將點云轉(zhuǎn)換為規(guī)則的離散表示,然后應用CNN預測對象的類別和3D盒子。 Li等人[154]提出了第一種使用FCN進行3D目標檢測的方法。他們將點云轉(zhuǎn)換為2D點圖,并使用2D FCN預測對象的邊界框和置信度。隨后,他們[155]將點云離散為具有長、寬、高、通道等維度的4D張量,并將基于二維fcns的檢測技術(shù)擴展到三維領(lǐng)域進行三維物體檢測。與[154]相比,基于3D fcn的方法[155]在精度上獲得了20%以上的增益,但由于3D卷積和數(shù)據(jù)稀疏性,不可避免地要消耗更多的計算資源。為了解決體素的稀疏性問題,Engelcke等人[156]利用以特征為中心的投票方案為每個非空體素生成一組選票,并通過累積選票獲得卷積結(jié)果。它的計算復雜度與被占用的體素數(shù)量成正比。Li等人[157]通過堆疊多個稀疏的3D CNN構(gòu)建了一個3D骨干網(wǎng)。該方法充分利用體素的稀疏性來節(jié)省內(nèi)存和加快計算速度。該三維骨干網(wǎng)在不引入大量計算量的前提下,提取了豐富的三維特征進行目標檢測。 Zhou等人[136]提出了一種基于體素的端到端可訓練框架VoxelNet。他們將點云劃分為等間距的體素,并將每個體素中的特征編碼為4D張量。然后連接區(qū)域建議網(wǎng)絡產(chǎn)生檢測結(jié)果。雖然該方法性能較強,但由于體素的稀疏性和三維卷積的影響,其速度非常慢。之后Yan等[158]利用稀疏卷積網(wǎng)絡[166]提高了[136]的推理效率。他們還提出了正弦誤差角度損失來解決0和π方向之間的歧義。Sindagi等人[159]在早期階段通過融合圖像和點云特征擴展了VoxelNet。具體來說,他們將[136]生成的非空體素投影到圖像中,并使用預先訓練的網(wǎng)絡提取每個投影體素的圖像特征。然后將這些圖像特征與體素特征連接起來,生成精確的3D盒子。與[136]、[158]相比,該方法可以有效利用多模態(tài)信息,減少假陽性和陰性。Lang等人[137]提出了一種名為point柱子的3D對象檢測器。該方法利用PointNet[5]學習以垂直列(柱子)組織的點云的特征,并將學習到的特征編碼為偽圖像。然后應用二維物體檢測管道預測三維邊界盒。在AP方面,point柱子優(yōu)于大多數(shù)融合方法(包括MV3D [4], RoarNet[143]和AVOD[126])。此外,point柱子可以在3D和BEV KITTI[14]基準上以62幀/秒的速度運行,使其非常適合實際應用。 He等人[160]觀察到,在現(xiàn)有的單鏡頭檢測器逐步縮小的特征圖中,點云的部分空間信息不可避免地會丟失,受此啟發(fā),He等人提出了一種SA-SSD檢測器,利用細粒度結(jié)構(gòu)信息提高定位精度。具體來說,他們首先將點云轉(zhuǎn)換為張量,并將其輸入骨干網(wǎng),以提取多級特征。此外,利用具有點級監(jiān)督的輔助網(wǎng)絡引導特征學習點云的結(jié)構(gòu)。實驗結(jié)果表明,SA-SSD在KITTI BEV檢測基準的Car類中排名第2。

Point-based Methods

這些方法直接以原始點云作為輸入。3DSSD[161]是這方面的開創(chuàng)性工作。它引入了距離- fps (D-FPS)和特征- fps (F-FPS)的融合采樣策略,以去除耗時的特征傳播(FP)層和[133]中的細化模塊。然后,利用候選生成(Candidate Generation, CG)層充分挖掘代表點,進一步將代表點輸入帶有3D中心度標簽的無錨回歸頭,預測3D對象盒。實驗結(jié)果表明,3DSSD在保持25fps速度的情況下,性能優(yōu)于兩階段點法PointRCNN [133]。

Other Methods

Meyer等人[162]提出了一種名為LaserNet的高效3D物體檢測器。該方法預測每個點在邊界盒上的概率分布,然后結(jié)合這些點分布生成最終的3D對象盒。進一步,采用點云的密集距離視圖(RV)表示作為輸入,提出了一種快速的均值-位移算法來降低點云預測產(chǎn)生的噪聲。LaserNet在0 ~ 50米范圍內(nèi)實現(xiàn)了最先進的性能,運行時間明顯低于現(xiàn)有方法。Meyer等人[163]隨后擴展了LaserNet[162],利用RGB圖像(例如50至70米)提供的密集紋理。具體來說,他們通過將3D點云投影到2D圖像上,將LiDAR點與圖像像素相關(guān)聯(lián),并利用這種關(guān)聯(lián)將RGB信息融合到3D點中。他們還認為3D語義分割是學習更好表示的輔助任務。該方法在保持LaserNet高效率的同時,在長距離(例如50 ~ 70米)的對象檢測和語義分割方面都取得了顯著的改進。Chen等人[164]觀察到孤立物體上的點可以提供關(guān)于物體位置和方向的豐富信息,受此啟發(fā),提出了一種新的熱點表示和第一個基于熱點的無錨檢測器。具體來說,原始點云首先體素化,然后輸入骨干網(wǎng)絡生成3D特征圖。利用這些特征圖對熱點進行分類,同時預測三維邊界盒。注意,熱點分配在骨干網(wǎng)的最后一個卷積層。實驗結(jié)果表明,該方法對稀疏點云具有較好的魯棒性。Shi et el。[125]提出了一種用于檢測激光雷達點云三維目標的圖神經(jīng)網(wǎng)絡Point-GNN。他們首先將輸入點云編碼為具有固定半徑的近鄰圖,然后將該圖輸入Point-GNN,以預測對象的類別和盒子。

4.2 3D Object Tracking

給定物體在第一幀中的位置,目標跟蹤的任務是估計其在后續(xù)幀中的狀態(tài)[167],[168]。由于三維目標跟蹤可以利用點云中豐富的幾何信息,因此有望克服基于圖像的跟蹤所面臨的遮擋、光照和尺度變化等缺點。 受Siamese網(wǎng)絡[169]在基于圖像的目標跟蹤方面的成功啟發(fā),Giancola等人[170]提出了一種形狀補全正則化的3D Siamese網(wǎng)絡。具體來說,他們首先使用卡爾曼濾波器生成候選對象,然后使用形狀正則化將模型和候選對象編碼成一個緊湊的表示。然后使用余弦相似度在下一幀中搜索被跟蹤對象的位置。該方法可以作為對象跟蹤的替代方法,并且顯著優(yōu)于大多數(shù)2D對象跟蹤方法,包括STAPLECA[171]和SiamFC[169]。為了高效地搜索目標對象,Zarzar等人[172]利用2D Siamese網(wǎng)絡生成大量的粗對象可對BEV表示進行解析。然后,他們利用3D Siamese網(wǎng)絡中的余弦相似度,對罐頭證書進行了細化。該方法在精確度(即18%)和成功率(即12%)方面顯著優(yōu)于[170]。Simon等人[173]提出了一種用于語義點云的3D對象檢測和跟蹤體系結(jié)構(gòu)。他們首先通過融合二維視覺語義信息生成體素化語義點云,然后利用時間信息提高多目標跟蹤的準確性和魯棒性。此外,他們還引入了一種功能強大且簡化的評估指標(即量表-旋轉(zhuǎn)-翻譯評分(SRFs)),以加速訓練和推斷。Complexer-YOLO取得了很好的跟蹤性能,并且仍然可以實時運行。此外,Qi等人[174]提出了點到箱(Point-to-Box, P2B)網(wǎng)絡。他們將模板和搜索區(qū)域放入主干中以獲取種子。搜索區(qū)域利用目標特異性特征增強種子,然后通過Hough投票回歸潛在目標中心。實驗結(jié)果表明,當以40幀/秒的速度運行時,P2B的性能比[170]高出10%以上。

4.3 3D Scene Flow Estimation

給定兩個點云和,3D場景流描述了中的每一個點到Y(jié)中相應位置的移動,。圖9顯示了兩個KITTI點云之間的3D場景流。類似于二維視覺中的光流估計,一些方法已經(jīng)開始從點云序列中學習有用的信息(如3D場景流、空間臨時信息)。

58a91c26-775f-11ed-8abf-dac502259ad0.png

圖9 Liu等人[175]提出FlowNet3D可以直接從一對連續(xù)的點云中學習場景流。FlowNet3D通過流嵌入層學習點級特征和運動特征。然而,F(xiàn)lowNet3D有兩個問題。首先,一些預測的運動向量在方向上明顯不同于地面真實情況。其次,F(xiàn)lowNet很難應用于非靜態(tài)場景,特別是由可變形物體引起的場景。為了解決這一問題,Wang等人[176]引入了余弦距離損失來最小化預測與地面真相之間的角度。此外,他們還提出了點到平面的距離損失,以提高剛性和動態(tài)場景的精度。實驗結(jié)果表明,這兩個損失項將FlowNet3D的準確率從57.85%提高到63.43%,加快和穩(wěn)定了訓練過程。Gu等人[177]提出了一種分層Permutohedral Lattice FlowNet (HPLFlowNet)來直接估計大規(guī)模點云的場景流。在降低計算成本的同時,提出了幾種雙邊卷積層來恢復原始點云的結(jié)構(gòu)信息。 為了有效地處理順序點云,F(xiàn)an和Yang[178]提出了PointRNN、PointGRU和PointLSTM網(wǎng)絡以及一個序列對序列模型來跟蹤mov - ing點。PointRNN、PointGRU和PointLSTM能夠捕獲空間臨時信息,并對動態(tài)點云進行建模。類似地,Liu等人[179]提出了metenet直接從動態(tài)學習表示點云。該方法學習從時空相鄰點聚合信息。進一步引入直接分組和鏈流分組來確定時間鄰居。然而,上述方法的性能受到數(shù)據(jù)集規(guī)模的限制。Mittal等人[180]提出了兩種自我監(jiān)督損失,在大型未標記數(shù)據(jù)集上訓練他們的網(wǎng)絡。他們的主要思想是,一個魯棒的場景流量估計方法應該在正向和反向預測都有效。由于場景流的不可測性,預測變換點的最近鄰被認為是偽地真。然而,真正的地面真相可能與最近的點不一樣。為了避免這一問題,他們計算了反向的場景流,并提出了一個循環(huán)一致性損失來將點平移到原始位置。實驗結(jié)果表明,該自監(jiān)督方法優(yōu)于現(xiàn)有的基于監(jiān)督學習的方法。

4.4 Summary

KITTI[14]基準是自動駕駛領(lǐng)域最具影響力的數(shù)據(jù)集之一,在學術(shù)界和工業(yè)界都得到了廣泛應用。表3和表4展示了不同檢測器在KITTI測試3D基準測試上獲得的結(jié)果。可以看出以下幾點:

基于區(qū)域提案的方法是這兩種方法中被研究最多的方法,并且在KITTI測試3D和BEV臺架測試的結(jié)果中都大大優(yōu)于單發(fā)方法。

現(xiàn)有的3D物體探測器有兩個限制。首先,現(xiàn)有方法的遠程檢測能力相對較差。第二,如何充分利用圖像中的紋理信息仍然是一個有待解決的問題。

多任務學習是3D目標檢測的未來發(fā)展方向。例如,MMF[128]學習跨模態(tài)表示,通過合并多個任務來實現(xiàn)最先進的檢測性能。

3D目標跟蹤和場景流量估計是新興的研究課題,自2019年以來逐漸受到越來越多的關(guān)注。

58fd7960-775f-11ed-8abf-dac502259ad0.png

表3

59507ba6-775f-11ed-8abf-dac502259ad0.png

表4

5 3D Point Cloud Segmentation

3D點云分割要求了解全局的幾何結(jié)構(gòu)以及各個點的細粒度的細節(jié)。根據(jù)分割的細粒度,3D 點云分割方法可分為以下三類:語義分割(場景級)、實例分割(物體級)和part segmentation(part level)。

5.1 3D Semantic Segmentation

給定一個點云,語義分割的目標是,根據(jù)語義信息,將各個點分成一定的子集。與3D形狀分類的分類類似,語義分割可分為兩種方法:基于投影的方法和基于點的方法。

59820a4a-775f-11ed-8abf-dac502259ad0.png

圖10:3D語義分割 Intermediate regular representations可被分成以下幾種:多視角表示[148], [149]、球狀表示[150], [151], [152]、體素表示[153], [154], [155]、超多面體晶格表示[156], [157]以及混合表示[158], [159]。具體可見圖11。

59aef424-775f-11ed-8abf-dac502259ad0.png

圖11:Intermediate regular representations

5.1.1 基于投影的網(wǎng)絡

多視角表示

[181]首先將3D點云從多個虛擬的相機視角投影至2D平面上,接著,使用多流的FCN在人造的圖像上預測各個像素的scores。最終各個點的語義標簽為不同視角上scores的融合。

相似地,[182]首先利用多組相機的位置,得到點云的一些RGB和深度圖。接著使用2D的分割網(wǎng)絡,在這些圖片上得到各個像素的label,這些從RGB和深度圖上得到的scores用來融合(使用redisual correction[192])。

基于點云是從局部歐式曲面上采樣得到的假設,[193]引入了tangent convolutions進行稠密的點云分割。該方法首先將各個點周圍的局部曲面投影至虛擬的切平面。Tangent convolutions在曲面上直接進行。

總的來說,多視角分割方法的性能對視角的選擇和遮擋非常敏感。同時,這類方法并未能完全利用潛在的幾何和結(jié)構(gòu)信息,因為投影操作不可避免地引入了信息損失。

球狀表示

為了得到更快更準確的3D點云分割,[183]提出了基于SqueezeNet和條件隨機場的端到端的網(wǎng)絡。

為了進一步提升分割準確率,引入了SqueezeSegV2[184]利用無監(jiān)督的domain adaptation解決domain shift。

[185]提出了**RangeNet++**,針對LiDAR點云進行實時的語義分割。2D深度圖的語義標簽首先轉(zhuǎn)移至3D點云上,接著使用基于KNN的后處理步驟來減輕離散化誤差的問題。

與單一的視角映射相比,球映射保持了更多的信息,并且更適合LiDAR點云。然而,這樣的中間表示不可避免地引入了一些問題,比如離散化誤差和遮擋問題。

5.1.2 基于離散化的方法

密集離散化表示

[195]首先將點云分成一系列占有的體素。接著將這些過渡數(shù)據(jù)送入至fully-3D CNN中進行體素級別的分割。最后,一格體素中的所有點的語義信息與該體素的label相同。該方法的性能極其受限于體素的細粒度和邊界的偽影。

之后,[196]提出SEGCloud來得到更細粒度和global consistent的語義分割。該方法引入了確定性的三線性插值,將由3D-FCNN產(chǎn)生的粗糙的網(wǎng)格預測映射回點云中,接著使用Fully Connected CRF,確保推測出的點云有著空間上的一致性。

[186]引入了一種基于核的變分自編碼器結(jié)構(gòu)地局部幾何結(jié)構(gòu)進行編碼。這里摒棄了binary occupancy representations, 使用RBF得到連續(xù)的表示,并且捕獲到每個體素中點的分布。再使用VAE將各個體素中的點映射至隱空間,最后使用CNN得到魯棒的特征表示。

良好的尺度擴展性質(zhì)是體素表示中的優(yōu)點之一。具體而言,基于體素的網(wǎng)絡對于有著不同空間尺寸的點云,其訓練和測試是不受限制的。

在Fully-Convolutional Point Network(FCPN)[187] 中,不同級別的幾何相關(guān)性從點云中提取出來,再使用3D卷積核加權(quán)的均值池化來提取特征。該方法可處理大規(guī)模的點云,并且在推斷時有著良好的尺度擴展性質(zhì)。

[198]提出了ScanComplete來實現(xiàn)3D補全,以及對各個體素進行語義預測。該方法利用了全卷積網(wǎng)絡的尺度擴展性,在訓練和測試階段應對不同的輸入數(shù)據(jù)大小。使用從粗到細的策略來提高預測結(jié)果的分辨率。

綜上所述,體素表示很自然地保留了3D點云的鄰域結(jié)構(gòu)。其規(guī)范的數(shù)據(jù)形式也是的標準的3D卷積可師姐應用。這些因素在這一領(lǐng)域有著不錯的性能提升。然而,體素化的過程內(nèi)在地引入了離散化的偽影和信息損失。通常,高分辨率會導致較高的內(nèi)存和計算消耗,低分辨率引入了信息的損失。在實際中如何選擇合適的網(wǎng)格分辨率是non-trivial的。

系數(shù)離散化表示

體素表示(volumetric representation)是稀疏的,其中非零元素的數(shù)量僅僅占很小一部分。因此,在空間上稀疏的數(shù)據(jù)使用稠密的卷積網(wǎng)絡是比較無效的。

為此,[166]提出了子流形的稀疏卷積網(wǎng)絡。該方法顯著地減小了內(nèi)存擬合計算消耗,通過限制卷積的輸出只能與被占據(jù)的體素有關(guān)。同時,該稀疏卷積也可以通知提取出的特征的稀疏性。該子流形稀疏卷積很適合處理高維度且空間較稀疏的數(shù)據(jù)。

更進一步,[199]提出的“MinkowskiNet”,即4D時間-空間卷積網(wǎng)絡用以3D視頻感知。廣義上的稀疏卷積來處理高維數(shù)據(jù)。

另一方面,Su等人[188]提出了基于雙邊卷積層(BCLs)的稀疏點陣網(wǎng)絡(SPLATNet)。該方法首先將原始點云插值到一個互面體稀疏點陣中,然后利用BCL對稀疏點陣的占用部分進行卷積。然后將過濾后的輸出插值回原始點云。此外,該方法還可以靈活地聯(lián)合處理多視圖圖像和點云。

此外,Rosu等人[189]提出了LatticeNet來實現(xiàn)對大型點云的高效處理。還引入了一個名為DeformsSlice的數(shù)據(jù)相關(guān)插值模塊,將點陣特征反向投影到點云上。

5.1.3 混合表示

為了進一步利用所有可用信息,許多方法試圖學習多模態(tài)特征。

[190]提出了joint 3D-mult-view網(wǎng)絡,來組合RGB和幾何特征。一個3D CNN流和一些2D CNN流用來提取特征,另一個可微分的back-projection layer用來合并3D和2D特征。

更進一步,[200]提出了unified point-based network來學習2D紋理信息,3D結(jié)構(gòu)和全局特征。該方法直接應用基于點的網(wǎng)絡來提取局部幾何特征和環(huán)境信息。

[191]提出了Multiview PointNet(MVPNet)來集成2D多視角特征和空間幾何特征。

5.1.4 基于點的網(wǎng)絡

基于點的網(wǎng)絡直接在點云上進行操作。然而,點云通常是無序且無結(jié)構(gòu)的,使得直接應用標準的CNN不現(xiàn)實。為此,先驅(qū)的工作PointNet[5]用來對每個點進行特征學習,使用的是標準的MLP和全局特征?;赑ointNet,一系列基于點的網(wǎng)絡被提出??傮w而言,這類方法可悲簡單的分為以下幾類:基于各個點的MLP方法,基于點卷積的方法,基于RNN的方法和基于圖的方法。

Pointwise MLP Methods

這類方法通常利用共享的MLP作為網(wǎng)絡中的基本單元。然而,由共享MLP提取出的各個點上的特征,并不能獲取到點云中的局部幾何關(guān)系,以及點與點之間的關(guān)系[5]。為了獲取各個點周圍更廣泛的信息,以及學習到更豐富的局部結(jié)構(gòu),有很多方法被提出,包括基于鄰近點特征池化的方法,基于注意力機制的集成(attention-based aggregation)以及局部-全局的特征級聯(lián)。 Neighboring feature pooling:為了獲取局部的幾何形式,這類方法通過將局部鄰域點集成的方式,對各個點學習特征。

具體而言,PointNet++[54]將點分層次,逐步地分成一些組,如下圖所示。多尺度的grouping和多分辨率的grouping來克服點云多樣性造成的問題。圖12(a)。

之后,[141]提出了PointSIFT模塊來實現(xiàn)方向的編碼和scale awareness。該模塊通過使用3階段的有向的卷積操作,將8個空間方向的信息堆疊并且編碼,將多尺度的特征提取并級聯(lián)來實現(xiàn)對不同尺度的適應性。

與PointNet++中使用GROUPING的方法不同,[204]利用K-Means聚類和KNN的方法在世界空間和特征空間定義兩種鄰域?;谶@樣的假設:來自于同一類的點在特征空間中應當接近,該論文提出了pairwise distance loss and a centroid loss來對特征學習進行正則。

為了建模點與點之間的相互關(guān)系,[57]提出了PointWeb來尋找局部區(qū)域內(nèi)所有點對之間的關(guān)系。

[205]提出了置換不變性的卷積稱之為Shellconv。

[206]提出了有效、輕量的網(wǎng)絡稱為RandLA-Net實現(xiàn)大規(guī)模的點云處理。該方法利用隨機樣本采樣,在內(nèi)存和計算方面提升很多。提出的局部特征集成用來獲取和保持幾何特征。

Attention-based aggregation:

為了進一步提升分割的準確率,[120]針對點云分割,提出了基于注意力的機制。

[56]提出了組隨機注意力機制(group shuffle attention)來建模點之間的關(guān)系,并且提出了具有置換不變性、task-agnostic以及可微分的Gumbel Subset Sampling(GSS)來替代被廣泛應用的Furthest Point Sampling(FPS)方法。該方法對離群點不敏感,并且可以選擇具有代表性的點的子集。

為了更好地獲取點云的空間分布,[207]提出了Local Spatial Aware(LSA)層來學習空間感知權(quán)重。

與CRF類似,[208]提出了Attention-based Score Refinement(ASR)模塊對分割的結(jié)果進行后處理。初始分割結(jié)果通過pooling的方式進行修正。該模塊很容易被集成至其他的深度網(wǎng)絡中來提升分割效果。

Local-global concatenation:[112]提出了置換不變性的PS2-Net,將點云的局部結(jié)構(gòu)和全局信息合并。Edgeconv[87]與NetVLAD[209]重復的級聯(lián)起來,來獲取局部信息和場景級別的全局特征。

Point Convolution Methods

這類方法通常試圖提出在點云上進行更有效的卷積操作。

[76]提出了在各個點上的卷積操作,其中鄰域點被分入至kernel cell,卷積時卷積核有權(quán)重。

[201]提出了稱之為PCCN的網(wǎng)絡,該網(wǎng)絡基于參數(shù)化的連續(xù)卷積層。該層的核參數(shù)通過MLP和張成的連續(xù)向量空間所參數(shù)化。圖12(b)。

[65]提出了Kernel Point Fully Convolutional Network(KP-FCNN),基于Kernel Point Convolution(KPConv)。具體而言,KPConv的卷積權(quán)重由歐式空間的距離決定,卷積核的點數(shù)也并不固定。卷積核點的位置由一個最優(yōu)化問題確定。

在[211]中,作者提供了豐富的消融實驗(ablation experiments)和可視化結(jié)果展示了集成方法中,感受野的重要性。同時他們提出了Dilated Point Convolution(DPC)操作,來集成鄰近點的特征,進而取代KNN的方法。該方法在提升感受野上非常有效,并且可以容易地集成至aggregation-based networks。

59fd17e4-775f-11ed-8abf-dac502259ad0.png

圖12

RNN-based Methods

為了獲取點云中的內(nèi)在環(huán)境特征,RNN也比用來進行點云的語義分割。

基于PointNet[5], [213]首先將一大塊點云轉(zhuǎn)換成多尺度的塊和網(wǎng)格塊來獲取輸入級別的環(huán)境。接著,使用PointNet對各個塊提取特征并送入Consolidation Units 或Recurrent Consolidation Units來獲取輸出級別的環(huán)境信息。實驗結(jié)果顯示,這樣處理空間環(huán)境信息的方法在提高分割性能時是很重要的。

[212]提出了一種輕量的模塊,利用了slice pooling layer將無序的點云特征轉(zhuǎn)換成有序的特征向量。

[202]提出了Pointwise Pyramid Pooling (3P)模塊來獲取從粗到細的局部特征,并利用雙向的RNN來實現(xiàn)端到端學習。圖12(c)。

然而這類方法損失了豐富的幾何特征和密度分布[220]。[220]提出了Dynamic Aggregation Network(DAR-Net)來同時考慮全局場景復雜度和局部幾何特征。

[221]提出了3DCNN-DQN-RNN。該網(wǎng)絡首先使用3DCNN學習空間分布和顏色特征,使用DQN進一步定位類別物體。最后級聯(lián)的特征向量送入RNN中獲取最后的分割結(jié)果。

Graph-based Methods

為了獲取3D點云中潛在的形狀和幾何結(jié)構(gòu),一些方法使用了圖神經(jīng)網(wǎng)絡。

[203]將點云看做是一些相連的簡單形狀和Superpoint的集合,并且使用有向圖來獲取結(jié)構(gòu)和環(huán)境信息。接著講大規(guī)模的點云分割問題分成三個子問題,即,geometrically homogeneous partition, superpoint embedding and contextual segmentation。圖12(d)。

為了進一步提升,[214]提出了有監(jiān)督的框架 to oversegment a point cloud into pure superpoints。

為了更好地獲取高維空間中的局部幾何關(guān)系,[222]提出了基于Graph Embedding Module(GEM)和Pyramid Attention Network(PAN)的網(wǎng)絡PyramNet。GEM模塊將點云表述為有向無環(huán)圖,并且在構(gòu)建相似度矩陣時,利用協(xié)方差矩陣代替歐式距離。在PAN模塊中,使用4個不同尺寸的卷積核來提取特征。

在[215]中,提出的Graph Attention Convolution用來選擇性地提取特征。該操作是通過根據(jù)不同相鄰點和fea通道的空間位置和特征差異動態(tài)分配注意權(quán)重來實現(xiàn)的。GAC可以學習捕獲鑒別的特征進行分割,并且與常用的CRF模型具有相似的特征。

Ma等人[223]提出了一種點全局上下文推理(PointGCR)模塊,使用無向圖表示沿通道維度捕獲全局上下文信息。PointGCR是一個即插即用的端到端可培訓模塊。它可以很容易地集成到現(xiàn)有的細分網(wǎng)絡中,以實現(xiàn)性能改進。

此外,最近的一些工作試圖在弱監(jiān)督下實現(xiàn)點云的語義分割。

Wei等人[224]提出了一種兩階段方法,用子云級標簽訓練分割網(wǎng)絡。

Xu等人[225]研究了幾種用于點云語義分割的不精確監(jiān)督方案。他們還提出了一種僅能用部分標記點(例如10%)進行訓練的網(wǎng)絡。

5.2 Instance Segmentation

與語義分割相比,實例分割更具有挑戰(zhàn)性因為它需要更準確和更小的細粒度,具體而言,他不僅需要將有著不同語義的點分辨出來,還需要將有著相同語義的實例分出來??傮w而言,目前的方法可分為兩個方向:基于候選框的方法以及不需要候選框的方法。一些里程碑式的方法具體見圖13。

5a68b9c2-775f-11ed-8abf-dac502259ad0.png

圖13:3D實例分割方法

5.2.1 Proposal-based Methods

這類方法將實例分割問題分成兩個子任務:3D物體檢測和實例mask預測。

[226]提出了3D fully-convolutional Semantic Instance Segmentation (3D-SIS) network,來實現(xiàn)在RGB-D數(shù)據(jù)上的語義實例分割。該網(wǎng)絡從顏色和幾何中學習特征。與3D目標檢測類似,3D Region Proposal Network(3D-RPN)和3D ROI layer用來預測bounding box的位置,物體類別和實例的mask。

根據(jù)合成分析策略,[227]提出了Generative Shape Proposal Network(GSPN)來產(chǎn)生3D候選框。這些候選框再通過R-PointNet修正。最終的標簽通過預測各個點的二進制mask來得到。與直接從點云中回歸3D bounding boxes不同,該方法移除了許多無用的候選框。

[228]通過將2D panoptic分割延伸至3D映射,提出了在線的體素化3D行社系統(tǒng)來實現(xiàn)大規(guī)模的3D重建,給語義標簽以及實例分割。該方法首先利用2D語義和實例分割獲得像素級別的panoptic 標簽,接著將這些標簽集成至體素map中。使用全連接的CRF來實現(xiàn)準確的分割。該語義映射系統(tǒng)可得到高質(zhì)量的語義映射和具有判別性的目標檢測。

[229]提出了單階段的,不需要anchor的可訓練網(wǎng)絡稱為3D-BoNet,來實現(xiàn)點云上的實例分割。該方法對所有可能的實例直接回歸大致的3D bounding boxes,接著利用點級別的二分類器來獲取實例標簽。特別地,該bounding boxe的任務是被當做是最優(yōu)分配問題。同時,使用了multi-criteria 損失函數(shù)來正則化生成的bounding boxes。該方法不需要任何的后處理操作,并且有很高的計算效率。

[230]提出了針對大規(guī)模戶外LiDAR點云進行實例分割的網(wǎng)絡。該方法使用self-attention blocks,在點云的鳥瞰圖上學習特征表示,最后獲取的實例分割標簽基于預測的水平中心和高度限制。

Shi等人[231]提出了一種層級意識 變分去噪遞歸自動編碼器(VDRAE) 預測室內(nèi)三維空間布局。目標建議 由遞歸上下文迭代生成和細化嗎 聚合和傳播。

總體而言,基于提議的方法[226]、[227]、[229]、[232]直觀直觀,實例分割結(jié)果通常具有較好的客觀性。然而,這些方法需要多階段的訓練和對新提案的修剪。因此通常都需要更多的時間和計算資源。

5.2.2 Proposal-free Methods

不需要候選框的方法[233-240]并沒有目標檢測的模塊。作為替代的是,他們通常將實例分割認為是語義分割后的聚類步驟。具體而言,需要現(xiàn)有的方法都基于這樣的假設:屬于同一實例的點應當有著相似的特征。因此這類方法通常聚焦于判別式的特征學習和點云聚類。

[233]作為先驅(qū)性的工作,首次提出了Similarity Group Proposal Network(SGPN)。該方法首先對每個點學習特征和語義map,接著引入相似度矩陣來表示各對點之間的相似度。為了學習到更多的判別式特征,使用了double-hinge loss來互相適應相似度矩陣和語義分割的結(jié)果。最后使用啟發(fā)式的NMS方法將相似的點歸并進一個實例中。由于相似度矩陣的構(gòu)建需要大量的內(nèi)存消耗,該方法應用的規(guī)模收到了限制。

類似地,[237]首先利用子流形稀疏卷積來預測各個體素的語義scores,急著引入聚類算法將點聚集至實例中。

更進一步,[238]提出了structure-aware loss來學習判別式的embeddings。該損失函數(shù)同時考慮了特征的相似度和點之間的幾何關(guān)系。最后使用基于注意力機制的graph CNN來自適應地對特征進行修正。

由于一個點的語義分類和實例標簽通?;ハ鄾Q定,許多方法將該兩個任務合并成一個任務。

[234]通過引入端到端可學習的Associatively Segmenting Instances and Semantics (ASIS)模塊,將兩個任務集成到一起。實驗結(jié)果顯示語義特征和實例特征可相互支撐,達到了一定的性能提升。

[235]首先引入了Multi-Task Point-Wise Network(MT-PNet), 給各個點分配標簽信息,并且對特征空間的embedding進行正則。接著將預測的語義標簽和embeddings融合至Multi-Value Conditional Random Field(MV-CRF)進行聯(lián)合優(yōu)化。最后,mean-field variational inference用來得到語義標簽和實例標簽。

[244]提出了Dynamic Region Growing (DRG) method,自動地將點云分成一系列的塊,接著使用無監(jiān)督的K-means++ 算法進行聚類。接著在環(huán)境信息的指導下進行大規(guī)模的patch segmentation。最后,這類有標簽的patches融合進物體級別,得到最后的語義和實例標簽。

為了實現(xiàn)在整個3D場景上的實例分割

[236]提出了混合的2D-3D網(wǎng)絡,該網(wǎng)絡學習全局一致性的實例特征和局部的幾何特征。學習到的特征被組合起來實現(xiàn)語義和實例分割。

在將點聚集成實例時,并非使用GroupMerging算法[197],而是更靈活的Meanshift[233]。

[246]同時學習了每個實例的獨特的特征表示,以及對于物體中心的方向信息。使用feature embedding loss and directional loss 在隱空間中學習特征。Mean-shift 聚類和NMS用來將體素積聚成實例。該方法在ScanNet[11]基準上達到了SOTA性能。同時,預測出的方向信息可以確定實例的邊界。

[247]引入了概率embeddings進行點云的實例分割。該方法也繼承了不確定估計并且提出了新的損失函數(shù)。

Jiang等人[240] 提出了一種PointGroup網(wǎng)絡,它由語義分割分支和偏移量預測 分支。雙集聚類算法和ScoreNet 是否進一步利用以獲得更好的分組結(jié)果

總體而言,不需要候選框的方法不需要耗費資源的區(qū)域生成步驟。然而,該方法的準確率較低因為該方法不檢測物體的邊界。

5.3 Part Segmentation

零件分割(Part Segmentation)的主要困難來自于兩方面。第一,有相同語義標簽的部件有著較大的幾何變化和不確定性;第二,該方法需要對噪聲和采樣具有魯棒性。

[248]提出了VoxSegNet,在3D體素數(shù)據(jù)上來實現(xiàn)細粒度的零件分割。Spatial Dense Extraction(SDE)模塊用來在稀疏體素數(shù)據(jù)上提取大規(guī)模的具有判別性的e特征。學習到的特征被重新賦予權(quán)重,并且使用Attention Feature Aggregation (AFA)模塊進行融合。

[249]將FCN與surface-based CRF組合,實現(xiàn)端到端的3D 零件分割。他們首先從不同的視角產(chǎn)生圖像來實現(xiàn)optimal surface coverage,并將這些圖片送入至2D網(wǎng)絡產(chǎn)生置信圖。接著,使用surface-based CRF將置信圖集成起來,用來對整個場景打標簽。

[250]引入了Synchronized Spectral CNN(SyncSpecCNN),在不規(guī)則非同構(gòu)形狀圖上實現(xiàn)卷積。

[251]通過引入Shape Fully Convolutional Networks(SFCN),在3D網(wǎng)格上實現(xiàn)了形狀分割,并且將三種低層次的幾何特征作為輸入。接著利用基于投票的多標簽graph cut來修正分割結(jié)果。

[252]提出了弱監(jiān)督的CoSegNet進行3D形狀分割。該網(wǎng)絡將一些未分割的3D點云形狀作為輸入,接著通過最小化group consistency loss,產(chǎn)生形狀零件的標簽。與CRF類似,預訓練的part-refinement網(wǎng)絡用來修正并且去噪。

[253]提出了Branched Auto-encoder network(BAE-NET)用來無監(jiān)督,one-shot和弱監(jiān)督3D形狀分割。該方法將形狀分割任務看做是特征學習問題并試圖找到最簡單的零件表示(通過最小化形狀重建損失函數(shù))?;诰幋a-解碼的結(jié)構(gòu),該網(wǎng)絡的每個分支都在學習特定零件形狀的相容表示。學到的特征與點坐標一起送入解碼器中,產(chǎn)生二進制的值(該值表示該點是否屬于這一part)。該方法有著良好的繁華性,并且可以處理大規(guī)模的3D形狀幾何。然而該方法對處值較為敏感,并且并未利用到形狀的語義信息,妨礙了該方法在每次迭代中得到魯棒、穩(wěn)定的估計。

[254]提出了一種自頂向下遞歸零件分解網(wǎng)絡(PartNet),用于分層形狀分割。與現(xiàn)有的將形狀分割為固定標簽集的方法不同,該網(wǎng)絡將零件分割為級聯(lián)二元標記問題,并根據(jù)幾何結(jié)構(gòu)將輸入點云分解為任意數(shù)量的零件。

[255]針對零鏡頭3D零件分割任務,提出了一種基于學習的分組框架。為了提高跨類別泛化能力,該方法傾向于學習一種分組策略,限制網(wǎng)絡在局部環(huán)境中學習零件級特征。

5.4 Summary

5a928cac-775f-11ed-8abf-dac502259ad0.png

表5:分割結(jié)果對比 待進一步研究的問題有:

由于常規(guī)的數(shù)據(jù)表示,基于投影的方法和基于離散化的方法都可以從二維圖像中利用成熟的網(wǎng)絡架構(gòu)。然而,基于投影的方法的主要局限性在于3D-2D投影帶來的信息丟失,而基于離散化的方法的主要瓶頸是分辨率的提高帶來的計算和存儲成本的大幅增加。為此,在索引結(jié)構(gòu)基礎上構(gòu)建稀疏卷積是一種可行的解決方案,值得進一步探索。

基于點的網(wǎng)絡是最常被研究的方法。然而,點表示自然不具有顯式的鄰近信息,現(xiàn)有的大多數(shù)基于點的方法不得不借助于昂貴的鄰近搜索機制(如KNN或ball query)。這從本質(zhì)上限制了這些方法的效率,因為鄰居搜索機制既需要很高的計算成本,又需要不規(guī)則的內(nèi)存訪問。

從不平衡數(shù)據(jù)中學習仍然是點云分割中一個具有挑戰(zhàn)性的問題。雖然有幾種的方法取得了顯著的綜合成績,但它們在類標很少的情況下表現(xiàn)仍然有限。例如,RandLA-Net在Semantic3D的reduced-8子集上獲得了76.0%的整體IoU,而在hardscape類上獲得了41.1%的非常低的IoU。

大多數(shù)現(xiàn)有的方法都適用于小點云(如1m*1m,共4096個點)。在實際中,深度傳感器獲取的點云通常是巨大的、大規(guī)模的。因此,有必要進一步研究大規(guī)模點云的有效分割問題。

已有少數(shù)文獻開始研究動態(tài)點云的時空信息。預期時空信息可以幫助提高后續(xù)任務的性能,如三維目標識別、分割和完成。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 3D
    3D
    +關(guān)注

    關(guān)注

    9

    文章

    2852

    瀏覽量

    107274
  • 深度學習
    +關(guān)注

    關(guān)注

    73

    文章

    5466

    瀏覽量

    120891

原文標題:TPAMI三維點云深度學習技術(shù)綜述

文章出處:【微信號:3D視覺工坊,微信公眾號:3D視覺工坊】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    中軟國際亮相華為生態(tài)應用創(chuàng)新交流會

    近日,以“鯤鵬展翅 鴻蒙啟航”為主題的華為生態(tài)應用創(chuàng)新交流會在山東濟南舉行,中軟國際應邀參會,與眾多當?shù)仄髽I(yè)的高管及技術(shù)專家一起,圍繞鯤鵬計算產(chǎn)業(yè)與鴻蒙操作系統(tǒng)的最新進展,展開了一系列深度交流與探討。
    的頭像 發(fā)表于 11-09 15:31 ?292次閱讀

    基于深度學習的三維分類方法

    近年來,云表示已成為計算機視覺領(lǐng)域的研究熱點之一,并廣泛應用于自動駕駛、虛擬現(xiàn)實、機器人等許多領(lǐng)域。雖然深度學習技術(shù)在處理常規(guī)結(jié)構(gòu)化的二維網(wǎng)格圖像數(shù)據(jù)方面取得了巨大成功,但在處理不規(guī)則、非結(jié)構(gòu)化的
    的頭像 發(fā)表于 10-29 09:43 ?148次閱讀
    基于<b class='flag-5'>深度</b><b class='flag-5'>學習</b>的三維<b class='flag-5'>點</b><b class='flag-5'>云</b>分類<b class='flag-5'>方法</b>

    芯片和封裝級互連技術(shù)的最新進展

    近年來,計算領(lǐng)域發(fā)生了巨大變化,通信已成為系統(tǒng)性能的主要瓶頸,而非計算本身。這一轉(zhuǎn)變使互連技術(shù) - 即實現(xiàn)計算系統(tǒng)各組件之間數(shù)據(jù)交換的通道 - 成為計算機架構(gòu)創(chuàng)新的焦點。本文探討了通用、專用和量子計算系統(tǒng)中芯片和封裝級互連的最新進展,并強調(diào)了這一快速發(fā)展領(lǐng)域的關(guān)鍵技術(shù)、挑戰(zhàn)和機遇。
    的頭像 發(fā)表于 10-28 09:50 ?280次閱讀

    高燃回顧|第三屆OpenHarmony技術(shù)大會精彩瞬間

    第三屆OpenHarmony技術(shù)大會圓滿落幕 全球開源精英齊聚 共同展示OpenHarmony技術(shù)、生態(tài)、人才的最新進展 見證OpenHarmony南北向生態(tài)繁榮 共繪開源生態(tài)發(fā)展藍圖 星光璀璨致謝
    發(fā)表于 10-16 18:47

    5G新通話技術(shù)取得新進展

    在探討5G新通話這一話題時,我們需首先明確其背景與重要性。自2022年4月國內(nèi)運營商正式推出以來,5G新通話作為傳統(tǒng)語音通話的升級版,迅速吸引了公眾的目光,并引起了社會的廣泛關(guān)注。它基于5G網(wǎng)絡,代表了通信技術(shù)的新進展。
    的頭像 發(fā)表于 10-12 16:02 ?503次閱讀

    深度學習中的時間序列分類方法

    的發(fā)展,基于深度學習的TSC方法逐漸展現(xiàn)出其強大的自動特征提取和分類能力。本文將從多個角度對深度學習在時間序列分類中的應用進行
    的頭像 發(fā)表于 07-09 15:54 ?654次閱讀

    深度學習中的無監(jiān)督學習方法綜述

    應用中往往難以實現(xiàn)。因此,無監(jiān)督學習深度學習中扮演著越來越重要的角色。本文旨在綜述深度學習中的
    的頭像 發(fā)表于 07-09 10:50 ?388次閱讀

    神經(jīng)網(wǎng)絡優(yōu)化算法有哪些

    神經(jīng)網(wǎng)絡優(yōu)化算法是深度學習領(lǐng)域中的核心技術(shù)之一,旨在通過調(diào)整網(wǎng)絡中的參數(shù)(如權(quán)重和偏差)來最小化損失函數(shù),從而提高模型的性能和效率。本文將詳細探討神經(jīng)網(wǎng)絡優(yōu)化算法的基本原理、主要方法、變體、以及在實際應用中的注意事項和
    的頭像 發(fā)表于 07-03 16:01 ?402次閱讀

    廣東的5G-A、信號升格和低空經(jīng)濟,又有新進展!

    了兩地的5G/5G-A、智算等數(shù)字基礎設施建設,深入了解了他們在信號升格和低空經(jīng)濟方面的最新進展?;顒右还渤掷m(xù)了三天,前后跑了8個項目,雖然很累,但收獲滿滿。接下
    的頭像 發(fā)表于 04-19 08:05 ?821次閱讀
    廣東的5G-A、信號升格和低空經(jīng)濟,又有<b class='flag-5'>新進展</b>!

    百度首席技術(shù)官王海峰解讀文心大模型的關(guān)鍵技術(shù)和最新進展

    4月16日,以“創(chuàng)造未來”為主題的Create 2024百度AI開發(fā)者大會在深圳國際會展中心成功舉辦。百度首席技術(shù)官王海峰以“技術(shù)筑基,星河璀璨”為題,發(fā)表演講,解讀了智能體、代碼、多模型等多項文心大模型的關(guān)鍵技術(shù)和最新進展。
    的頭像 發(fā)表于 04-18 09:20 ?642次閱讀
    百度首席技術(shù)官王海峰解讀文心大模型的關(guān)鍵技術(shù)和<b class='flag-5'>最新進展</b>

    腦機接口電極界面材料與改性技術(shù)進展綜述

    materials and modification technologies for brain-computer interfaces,文章綜述了神經(jīng)電極材料與改進技術(shù)的最新進展。
    的頭像 發(fā)表于 03-12 09:39 ?1013次閱讀
    腦機接口電極界面材料與改性技術(shù)<b class='flag-5'>進展</b><b class='flag-5'>綜述</b>

    四個50億+,多個半導體項目最新進展!

    來源:全球半導體觀察,謝謝 編輯:感知芯視界 Link 近日,半導體行業(yè)多個項目迎來最新進展,其中浙江麗水特色工藝晶圓制造項目、浙江中寧硅業(yè)硅碳負極材料及高純硅烷系列產(chǎn)品項目、晶隆半導體材料及器件
    的頭像 發(fā)表于 02-27 09:35 ?935次閱讀

    兩家企業(yè)有關(guān)LED項目的最新進展

    近日,乾富半導體與英創(chuàng)力兩家企業(yè)有關(guān)LED項目傳來最新進展。
    的頭像 發(fā)表于 01-15 13:37 ?645次閱讀

    語音識別技術(shù)最新進展:視聽融合的多模態(tài)交互成為主要演進方向

    多種模態(tài)(聲學、語言模型、視覺特征等)進行聯(lián)合建模,基于深度學習的多模態(tài)語音識別取得了新進展。 ? 多模態(tài)交互的原理及優(yōu)勢 ? 多模態(tài)交互技術(shù)融合了多種輸入方式,包括語音、手勢、觸摸和眼動等,使用戶可以根據(jù)自己的喜好和習慣
    的頭像 發(fā)表于 12-28 09:06 ?3536次閱讀
    語音識別技術(shù)<b class='flag-5'>最新進展</b>:視聽融合的多模態(tài)交互成為主要演進方向

    基于深度學習的3D實例分割方法

    3D實例分割(3DIS)是3D領(lǐng)域深度學習的核心問題。給定由云表示的 3D 場景,我們尋求為每個分配語義類和唯一的實例標簽。 3DIS 是一項重要的 3D 感知任務,在自動駕駛、增
    發(fā)表于 11-13 10:34 ?2110次閱讀
    基于<b class='flag-5'>深度</b><b class='flag-5'>學習</b>的3D<b class='flag-5'>點</b><b class='flag-5'>云</b>實例分割<b class='flag-5'>方法</b>