作者:Steve Leibson,編譯:Stark
最近幾年關于自動駕駛汽車的新聞不斷出現(xiàn)在頭條新聞,各大傳統(tǒng)汽車制造商與互聯(lián)網(wǎng)公司結合紛紛殺入自動駕駛這個“藍海”市場,與其說這是汽車行業(yè)所經(jīng)歷的一場巨大革命,倒不如說是人工智能(AI)的興起,自動駕駛的根本原理就是利用機器視覺系統(tǒng)。當然自動駕駛汽車的發(fā)展也是一步一步的并且需要經(jīng)驗的積累,目前我們看到特斯拉、百度等廠商都推出了輔助自動駕駛系統(tǒng),還遠遠沒有實現(xiàn)完全的自動駕駛,此外自動駕駛汽車真正上路還必須得到國家機動車管理部門的政策許可,因此不得不承認自動駕駛汽車還有很長的一段路要走。(圖1:自動駕駛汽車要能夠實時感知路況信息)
機器視覺技術可以應用于自動駕駛系統(tǒng)中實現(xiàn)路況信息的采集和檢測,其中CNN(卷積神經(jīng)網(wǎng)絡)在機器視覺系統(tǒng)中用于圖像處理具有壓倒性的優(yōu)勢。CNN網(wǎng)絡根據(jù)復雜度可以劃分為很多個“網(wǎng)絡層”,典型的卷積神經(jīng)網(wǎng)絡可以劃分為卷積層、池化層和全連接層,它能夠將數(shù)量龐大的圖像識別問題進行不斷的降維處理,最終被訓練后用于高效的圖像識別。
來自韓國的ATUS公司實現(xiàn)了基于Zynq的CNN(卷積神經(jīng)網(wǎng)絡)系統(tǒng),并且移植到汽車上進行了上路測試(如下視頻所示),通過視頻我們可以看到它能夠實現(xiàn)道路上行人、汽車、動物和道路標志等的實時檢測與識別。
ATUS公司的這個解決方案采用的是Xilinx Zynq-7020 SoC處理器,移植的是YOLO圖像處理算法,YOLO(You Only Look Once)是基于GoogleNet的物體檢測深度網(wǎng)絡,實時和有效是YOLO網(wǎng)絡的最大的特點和優(yōu)勢,這兩點也是自動駕駛和ADAS系統(tǒng)所必須具備的,該系統(tǒng)的視頻流速度可達到46.7fps(@416x234)。
視頻播放請點擊https://v.qq.com/x/page/y0543u6v4bz.html
Xilinx推出的Zynq-7000和UltraScale+ MPSoC系列是機器視覺應用的理想選擇,能夠為復雜多任務的并行設計提供無與倫比的性能,并且滿足降低的成本和功耗要求。尤其是它們所支持的reVISION Stack能夠提供豐富的算法、IP和應用開發(fā)資源,支持最流行的神經(jīng)網(wǎng)絡,幫助工程師更快的開發(fā)視覺導向的智能系統(tǒng)。
-
機器視覺
+關注
關注
161文章
4326瀏覽量
120011 -
人工智能
+關注
關注
1791文章
46698瀏覽量
237188 -
自動駕駛
+關注
關注
782文章
13633瀏覽量
165992
發(fā)布評論請先 登錄
相關推薦
評論