最近幾年,放在攝像頭上的深度學(xué)習(xí)研究,發(fā)展很蓬勃。相比之下,激光雷達(LiDAR) 身上的學(xué)術(shù)進展并不太多。
最近幾年,放在攝像頭上的深度學(xué)習(xí)研究,發(fā)展很蓬勃。相比之下,激光雷達(LiDAR) 身上的學(xué)術(shù)進展并不太多??墒牵す饫走_采集的數(shù)據(jù),有很多優(yōu)點。比如空間信息豐富,比如光照不足也不影響感知,等等。
當然,也有缺點。激光雷達數(shù)據(jù),缺乏RGB圖像的原始分辨率、以及高效的陣列結(jié)構(gòu)(Array Structure) 。并且,3D點云很難在神經(jīng)網(wǎng)絡(luò)里編碼。
如何“淘汰”攝像頭?
激光雷達廠商Ouster,是領(lǐng)域內(nèi)獨角獸Quanergy的前聯(lián)合創(chuàng)始人Angus Pacala,出走之后建立的新公司。
Ouster聯(lián)合創(chuàng)始人兼CEO
去年11月,公司推出了OS-1激光雷達,想要從這里開始,打破激光雷達與攝像頭的界限。中心思想是,只要激光雷達的數(shù)據(jù)足夠好,就算專為處理RGB圖像而生的深度學(xué)習(xí)算法,也可以拿來用。Pacala說,現(xiàn)在OS-1可以實時輸出固定分辨率的深度圖像(Depth Image) ,信號圖像(Signal Image) 以及環(huán)境圖像(Ambient Image)。這些任務(wù)都不需要攝像頭的參與。
高速相對運動中,容易產(chǎn)生果凍效應(yīng)
數(shù)據(jù)層與數(shù)據(jù)層之間,是空間相關(guān)的。拍攝高速運動的物體,也不容易產(chǎn)生果凍效應(yīng)(Shutter Effects) 。另外,OS-1的光圈,比大多數(shù)單反相機的光圈要大,適合光照不足的場景。團隊還開發(fā)了光敏度很低的光子計數(shù)ASIC,在低光照的情況下采集環(huán)境圖像。
自上而下:環(huán)境、強度、范圍圖像,以及點云
設(shè)備可以在近紅外波段捕捉信號與環(huán)境信息,獲得的數(shù)據(jù),跟普通可見光圖像差不太多。這樣,分析RGB圖像用的算法,也可以處理激光雷達的數(shù)據(jù)。
小伙伴們還可以用Ouster (剛剛進行了固件升級) 的開源驅(qū)動,把數(shù)據(jù)轉(zhuǎn)換成360度的全景動態(tài):
數(shù)據(jù)跑一跑
就像剛才說的,只要數(shù)據(jù)夠好,就可以用那些為攝像頭開發(fā)的算法,來做深度學(xué)習(xí)。把深度、強度和環(huán)境信息,編碼成向量。就像RGB圖像可以編碼成紅綠藍通道一樣。所以,OS-1的數(shù)據(jù)質(zhì)量究竟怎么樣?
數(shù)據(jù)跑得很開心
Pacala說,他們用過的算法,和激光雷達的合作都很愉快。
舉個栗子,他們訓(xùn)練了一個像素語義分類器,來分辨可以行駛的道路,其他汽車,行人,以及自行車。
這里是舊金山,在英偉達GTX 1060上運行分類器,實時生成了這樣的**語義分割**效果:
語義分割:路是路車是車
這是團隊做的第一個實現(xiàn)。
數(shù)據(jù)是逐像素的數(shù)據(jù),所以能夠無縫將2D翻譯成3D幀,來做邊框估計這類實時處理。
除此之外,團隊還把深度、信號和周圍環(huán)境分開,單獨放進神經(jīng)網(wǎng)絡(luò)里去跑。一個栗子,用了SuperPoint項目里預(yù)訓(xùn)練的神經(jīng)網(wǎng)絡(luò),來跑強度和深度圖像。
網(wǎng)絡(luò)是在RGB圖像上訓(xùn)練的,從來沒接觸過激光雷達/深度數(shù)據(jù)。初次見面,卻一見如故:
不過,融合了攝像頭屬性的激光雷達,搭載到自動駕駛車上會有怎樣的表現(xiàn),還是未知。
-
激光雷達
+關(guān)注
關(guān)注
967文章
3921瀏覽量
189438 -
車載攝像頭
+關(guān)注
關(guān)注
5文章
133瀏覽量
28047 -
深度學(xué)習(xí)
+關(guān)注
關(guān)注
73文章
5463瀏覽量
120890
原文標題:從此,激光雷達和攝像頭,就是一個東西了?
文章出處:【微信號:IV_Technology,微信公眾號:智車科技】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
評論