0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

Mobileye公布最新自動駕駛方案

佐思汽車研究 ? 來源:佐思汽車研究 ? 作者:佐思汽車研究 ? 2020-10-12 11:40 ? 次閱讀

2020年9月24日,吉利汽車與Mobileye正式簽約,將使用EyeQ5做自動駕駛,同時,Mobileye也公布了最新的自動駕駛方案。

11個攝像頭中,4個魚眼短距離的泊車用攝像頭,7個遠距離自動駕駛用攝像頭,包括前向6個,后向1個。與EyeQ4最大不同之處在于三目攝像頭被雙目取代了,三目攝像頭實際是單目攝像頭在不同F(xiàn)OV上的擴展,特斯拉和國內(nèi)新興造車的輔助駕駛或自動駕駛方案都是采用三目。而Mobileye這次沒有用三目,擋風玻璃后視鏡位置是兩個單目攝像頭,F(xiàn)OV分別是28度和120度。

考慮到兩個攝像頭之間的距離,顯然不是奔馳那樣傳統(tǒng)的Stereo Camera立體雙目攝像頭,并且根據(jù)這兩個攝像頭的FOV看,也不是主攝像頭。倒車鏡上則有一個FOV為100度的攝像頭,A柱下方還有一個側(cè)向的FOV為100度的攝像頭。 實際上Mobileye的前部六個攝像頭(可能后部的攝像頭也參與了)構(gòu)成了SfM(Structurefrom Motion)。Stereo Vision(立體視覺)SfM比較稀疏,再進一步稠密化就是Multi ViewStereo,即MVS。雖然這七個攝像頭都是單目,但他們是合在一起工作的,應該叫多目立體視覺。 Mobileye有關SfM的專利主要有三個,一個是2014年的DenseStructure from motion,另一個是2017年的StereoAuto-Calibration From Structure-from-motion,還有一個是2020年的COMFORTRESPONSIBILITY SENSITIVITY SAFETY MODEL(長達197頁),其中雖未提及SfM具體算法,但描述了SfM Stereo Image的處理流程。

Mobileye的Stereo Image處理流程

自動駕駛領域,感知部分的任務就是建立一個準確的3D環(huán)境模型。深度學習加單目三目是無法完成這個任務的。單目和三目攝像頭的致命缺陷就是目標識別(分類)和探測(Detection)是一體的,無法分割的。

必須先識別才能探測得知目標的信息,而深度學習肯定會出現(xiàn)漏檢,也就是說3D模型有缺失,因為深度學習的認知范圍來自其數(shù)據(jù)集,而數(shù)據(jù)集是有限的,不可能窮舉所有類型,因此深度學習容易出現(xiàn)漏檢而忽略前方障礙物,如果無法識別目標,單目就無法獲得距離信息,系統(tǒng)就會認為前方障礙物不存在危險,不做任何減速,特斯拉多次事故大多都是這個原因。 傳統(tǒng)算法,則可能無法識別前方障礙物,但依然能夠獲知前方障礙物的信息,能夠最大限度地保證安全。當然這需要傳感器配合,激光雷達和雙目立體視覺都是以傳統(tǒng)算法為核心(因為它不需要識別目標,自然就不需要深度學習,當然你也可以用深度學習處理激光雷達數(shù)據(jù),但不是為了識別目標)。

其次,深度學習是一個典型的黑盒子系統(tǒng),汽車上任何事物都必須具備可解釋性和確定性,深度學習并不具備。傳統(tǒng)車廠盡量避免在直接有關汽車安全領域使用深度學習,當然,深度學習是識別目標準確度最高的方法,不得不用。大部分車廠會堅持使用可解釋的具備確定性的傳統(tǒng)圖像算法,直到深度學習變成白盒子。

上圖為Waymo深度學習科學家drago anguelov 2019年2月在MIT在講述無人車感知系統(tǒng)時,坦承機器學習的不足,單目系統(tǒng)漏檢無法避免,特別是在交通復雜的中國。深度學習的漏檢和算力沒有任何關系,再強大的算力也無法避免漏檢,也就無法避免事故。 若要解決漏檢這個問題,或者說構(gòu)建一個沒有缺失的3D環(huán)境模型就必須用將識別與探測分離,無需識別也可以探測目標的信息,忘掉深度學習,傳統(tǒng)的做法是激光雷達和雙目立體視覺。但激光雷達商業(yè)化,車載化一直進展緩慢,雙目的缺陷是立體匹配算法門檻太高,在線標定非常困難,只有奔馳、斯巴魯、路虎和雷克薩斯運用的比較好。寶馬雖然高端車型使用雙目,但實測結(jié)果并不理想,寶馬如今也部分放棄了雙目路線,電動SUV領域還未放棄雙目。

除了激光雷達和雙目立體視覺外還有一種方法,這就是今天要說的主角:SfM。在雙目立體視覺中,兩個相機之間的相對位姿是通過標定靶精確標定出來的,在重建時直接使用三角法進行計算;而在SfM中該相對位姿是需要在重建之前先計算的。雙目必須兩個鏡頭輸入兩張照片雙目重建方法,SfM和MVS屬于單目重建多目立體視覺,輸入的是一系列同一物體和場景的多視圖。SfM得到的通常是稀疏點云,而經(jīng)過MVS處理極線約束后可建立稠密點云,可以媲美激光雷達點云,也就是Mobileye所說的Vidar。

SfM的框架圖

Structure fromMotion(SfM)是一個估計相機參數(shù)及三維點位置的問題。一個基本的SfM pipeline可以描述為:對每張2維圖片檢測特征點(feature point),對每對圖片中的特征點進行匹配,只保留滿足幾何約束的匹配,最后執(zhí)行一個迭代式的、魯棒的SfM方法來恢復攝像機的內(nèi)參(intrinsic parameter)和外參(extrinsic parameter)。并由三角化得到三維點坐標,然后使用Bundle Adjustment進行優(yōu)化。常見的SfM方法可以分為增量式(incremental/sequentialSfM),全局式(global SfM),混合式(hybrid SfM),層次式(hierarchica SfM)。這些都是傳統(tǒng)OpenCV算法,跟深度學習無關,而如今,簡單易學深度學習橫掃一切,復雜難學的傳統(tǒng)算法人才非常稀缺,導致SfM幾乎沒有商業(yè)化的例子。

SfM最初是假定相機圍繞靜態(tài)場景運動,實際就是相機獲取在目標不同位置的圖像,因此可以用放置多個相機取代運動的單一相機。為了避免干擾,28度FOV與兩個100度FOV的攝像頭構(gòu)成SfM系統(tǒng)。SfM通常針對靜止目標(古建筑物居多),移動目標難度極大,干擾因素比較多,大部分人都望而卻步。 在MVS重建精準3D尺寸模型領域有個難點,即尺度因子不確定性,這個可以用其他傳感器如高精度IMU獲取真實尺寸校準,但高精度IMU太貴了,還有一種方法就是DNN。也可以看作用先驗尺寸數(shù)據(jù)推算實際尺寸。當然也有傳統(tǒng)的非深度學習方法。

上圖即Mobileye的VIDAR,基于比較簡單的神經(jīng)網(wǎng)絡DNN,對算力要求遠低于圖像識別分類的CNN?;谏疃葘W習的3D點云和mesh重構(gòu)是較難以計算的,因為深度學習一個物體完整的架構(gòu)需要大量數(shù)據(jù)的支持。傳統(tǒng)的3D模型是由vertices和mesh組成的,因此不一樣的數(shù)據(jù)尺寸data size造成了訓練的困難。所以后續(xù)大家都用voxelization(Voxel)的方法把所有CAD model轉(zhuǎn)成binary voxel模式(有值為1,空缺為0)這樣保證了每個模型都是相同的大小。利用一個標準的CNN結(jié)構(gòu)對原始input image進行編碼,然后用Deconv進行解碼,最后用3D LSTM的每個單元重構(gòu)output voxel。3D voxel是三維的,它的精度成指數(shù)增長,所以它的計算相對復雜。

這個多目立體視覺制造出來的VIDAR與真實的Lidar當然有一定差距,與傳統(tǒng)的雙目立體視覺相比精度也有一定差距,畢竟雙目立體視覺發(fā)展了20年,不過多目比雙目覆蓋面更廣。

Mobileye SuperVision的系統(tǒng)框架圖

在2020年Mobileye的專利里也提到了雙處理器設置,第一個視覺處理器檢測道路標識、交通標識,并根絕ROADBOOK做定位,第二個視覺處理器則處理SfM,并發(fā)送到第一個視覺處理器,構(gòu)建起一個帶有完整道路結(jié)構(gòu)的3D環(huán)境模型。 和英偉達、特斯拉以及一堆視覺加速器廠家比,Mobileye并不擅長硬件高算力,EyeQ5的算力只有24TOPS,低于英偉達Xavier的32TOPS,2022年即將量產(chǎn)的Orin高達200TOPS。

Mobileye擅長的是算法,SfM和MVS將筑起一道算法護城河,并借此提高安全。EyeQ5預計在2021年3月量產(chǎn),盡管其算力與許多國內(nèi)初創(chuàng)廠家相比都低,但高算力不代表安全,EyeQ5依然獲得吉利、寶馬等4個大整車廠的訂單。 加入佐思數(shù)據(jù)平臺會員,可獲得Mobileye立體視覺專利完整版。

原文標題:忘掉單目和三目吧,Mobileye轉(zhuǎn)向立體視覺

文章出處:【微信公眾號:佐思汽車研究】歡迎添加關注!文章轉(zhuǎn)載請注明出處。

責任編輯:haq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 處理器
    +關注

    關注

    68

    文章

    19100

    瀏覽量

    228814
  • 攝像頭
    +關注

    關注

    59

    文章

    4793

    瀏覽量

    95275
  • 激光雷達
    +關注

    關注

    967

    文章

    3921

    瀏覽量

    189438
  • 自動駕駛
    +關注

    關注

    782

    文章

    13621

    瀏覽量

    165950

原文標題:忘掉單目和三目吧,Mobileye轉(zhuǎn)向立體視覺

文章出處:【微信號:zuosiqiche,微信公眾號:佐思汽車研究】歡迎添加關注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關推薦

    自動駕駛HiL測試方案案例分析--ADS HiL測試系統(tǒng)#ADAS #自動駕駛 #VTHiL

    自動駕駛
    北匯信息POLELINK
    發(fā)布于 :2024年10月22日 15:20:19

    自動駕駛HiL測試方案——攝像頭仿真之視頻注入#ADAS #自動駕駛 #VTHiL

    自動駕駛
    北匯信息POLELINK
    發(fā)布于 :2024年10月17日 15:18:41

    Mobileye端到端自動駕駛解決方案的深度解析

    自動駕駛技術(shù)正處于快速發(fā)展之中,各大科技公司和汽車制造商均在爭相布局,試圖在這個新興領域占據(jù)一席之地。Mobileye作為全球自動駕駛技術(shù)的領軍企業(yè)之一,憑借其獨特的端到端自動駕駛解決
    的頭像 發(fā)表于 10-17 09:35 ?256次閱讀
    <b class='flag-5'>Mobileye</b>端到端<b class='flag-5'>自動駕駛</b>解決<b class='flag-5'>方案</b>的深度解析

    自動駕駛HiL測試方案 ——場景仿真3D演示#ADAS #自動駕駛 #VTHiL

    自動駕駛
    北匯信息POLELINK
    發(fā)布于 :2024年10月16日 10:55:35

    自動駕駛HiL測試方案介紹#ADAS #自動駕駛 #VTHiL

    自動駕駛
    北匯信息POLELINK
    發(fā)布于 :2024年10月12日 18:02:07

    極氪與Mobileye攜手加速自動駕駛技術(shù)中國本地化

    近日,新能源汽車品牌極氪汽車與以色列領先的自動駕駛技術(shù)巨頭Mobileye宣布了一項重要合作計劃,旨在加速雙方在中國市場的技術(shù)本地化進程。此次合作的核心是將Mobileye的SuperVision
    的頭像 發(fā)表于 08-06 10:19 ?582次閱讀

    FPGA在自動駕駛領域有哪些優(yōu)勢?

    FPGA(Field-Programmable Gate Array,現(xiàn)場可編程門陣列)在自動駕駛領域具有顯著的優(yōu)勢,這些優(yōu)勢使得FPGA成為自動駕駛技術(shù)中不可或缺的一部分。以下是FPGA在自動駕駛
    發(fā)表于 07-29 17:11

    FPGA在自動駕駛領域有哪些應用?

    FPGA(Field-Programmable Gate Array,現(xiàn)場可編程門陣列)在自動駕駛領域具有廣泛的應用,其高性能、可配置性、低功耗和低延遲等特點為自動駕駛的實現(xiàn)提供了強有力的支持。以下
    發(fā)表于 07-29 17:09

    Mobileye引領自動駕駛新紀元:L4級無人駕駛系統(tǒng)在德國成功路測

    在全球自動駕駛技術(shù)的浪潮中,Mobileye,作為全球自動駕駛解決方案的領軍者,再次邁出了具有里程碑意義的一步。近日,該公司宣布其全自動無人
    的頭像 發(fā)表于 07-02 17:04 ?1391次閱讀

    未來已來,多傳感器融合感知是自動駕駛破局的關鍵

    駕駛的關鍵的是具備人類的感知能力,多傳感器融合感知正是自動駕駛破局的關鍵。昱感微的雷視一體多傳感器融合方案就好像一雙比人眼更敏銳的眼睛,可以為自動駕駛系統(tǒng)提供更豐富更精準的視覺語言——
    發(fā)表于 04-11 10:26

    大眾汽車和Mobileye加強自動駕駛合作

    美國智能駕駛芯片巨頭Mobileye與大眾汽車集團近日宣布,在自動駕駛領域深化合作,共同推動全新自動駕駛功能在大眾旗下量產(chǎn)車型的應用。Mobiley
    的頭像 發(fā)表于 03-22 11:46 ?844次閱讀

    Mobileye與大眾汽車深化合作,推動自動駕駛技術(shù)發(fā)展

    新技術(shù)涵蓋了多個應用場景,如高速公路及市區(qū)道路駕駛中的高級輔助系統(tǒng),如自適應超車、自主排隊停車等功能。同時,Mobileye也將向大眾商用車提供更多的自動駕駛技術(shù)解決方案
    的頭像 發(fā)表于 03-21 09:57 ?496次閱讀

    自動駕駛發(fā)展問題及解決方案淺析

    隨著科技的飛速進步,自動駕駛汽車已經(jīng)從科幻概念逐漸轉(zhuǎn)變?yōu)楝F(xiàn)實。然而,在其蓬勃發(fā)展的背后,自動駕駛汽車仍面臨一系列亟待解決的問題和挑戰(zhàn)。本文將對這些問題進行深入的剖析,并提出相應的解決方案,以期為未來
    的頭像 發(fā)表于 03-14 08:38 ?1035次閱讀

    英特爾旗下自動駕駛公司發(fā)布DXP操作系統(tǒng)

    英特爾旗下自動駕駛技術(shù)公司Mobileye Global在CES 2024上推出了一款名為DXP的操作系統(tǒng),旨在幫助汽車制造商開發(fā)特定的自動駕駛系統(tǒng)。這款新系統(tǒng)的推出,引發(fā)了Mobileye
    的頭像 發(fā)表于 01-10 14:47 ?686次閱讀

    LabVIEW開發(fā)自動駕駛的雙目測距系統(tǒng)

    LabVIEW開發(fā)自動駕駛的雙目測距系統(tǒng) 隨著車輛駕駛技術(shù)的不斷發(fā)展,自動駕駛技術(shù)正日益成為現(xiàn)實。從L2級別的輔助駕駛技術(shù)到L3級別的受條件約束的
    發(fā)表于 12-19 18:02