0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

一種端到端的立體深度感知系統(tǒng)的設(shè)計(jì)

3D視覺工坊 ? 來(lái)源:3D視覺工坊 ? 2023-05-26 16:12 ? 次閱讀

本文提出了一種生產(chǎn)化的端到端立體深度感知系統(tǒng)設(shè)計(jì),可以完成預(yù)處理、在線立體校正和立體深度估計(jì),并支持糾偏失敗后的單目深度估計(jì)備選方案。同時(shí),該深度感知系統(tǒng)的輸出應(yīng)用于一種基于智能眼鏡拍攝的視角生成管道,創(chuàng)造出具有3D計(jì)算攝影效果的視覺效果。此外,該系統(tǒng)設(shè)計(jì)可以在手機(jī)的嚴(yán)格計(jì)算預(yù)算內(nèi)運(yùn)行,具有通用性,可以適用于各種品牌智能手機(jī)。該論文的設(shè)計(jì)是為了解決智能眼鏡中的深度感知問(wèn)題,可以為智能眼鏡提供更好的增強(qiáng)現(xiàn)實(shí)體驗(yàn)。

1 前言

本文介紹了一種生產(chǎn)化的端到端深度感知系統(tǒng),包括預(yù)處理、在線立體校正、立體深度估計(jì)并支持單目深度估計(jì)的備用方案。該系統(tǒng)的輸出結(jié)果應(yīng)用于視角生成的渲染管道,創(chuàng)建具有3D計(jì)算攝影效果的效果。該系統(tǒng)設(shè)計(jì)具有通用性和穩(wěn)健性,可以用于不同品牌的主流手機(jī)。

我們的技術(shù)和系統(tǒng)貢獻(xiàn)包括:

詳細(xì)描述了一個(gè)端到端的立體系統(tǒng),并提供了小心的設(shè)計(jì)選擇和備用方案,這些策略可以成為其他類似深度系統(tǒng)的基線;

引入了一種新的在線校正算法,具有快速和穩(wěn)健的特點(diǎn),有助于提高立體視覺的準(zhǔn)確性;

提出了一種新穎的策略,共同設(shè)計(jì)立體網(wǎng)絡(luò)和單目深度網(wǎng)絡(luò),使兩個(gè)網(wǎng)絡(luò)的輸出格式相似,從而更好地利用他們的結(jié)構(gòu)信息;

證明了在計(jì)算預(yù)算有限的情況下,本文的量化網(wǎng)絡(luò)實(shí)現(xiàn)了競(jìng)爭(zhēng)性的準(zhǔn)確度,可以應(yīng)用于計(jì)算資源有限的場(chǎng)景。

020f030a-fae3-11ed-90ce-dac502259ad0.png

2 相關(guān)背景

本文關(guān)注于構(gòu)建用于靈活智能眼鏡的完整立體系統(tǒng),該系統(tǒng)具有魯棒性和輕量化處理,能夠在線校正,具有用于提顯和3D效果等功能?,F(xiàn)有工作多集中在系統(tǒng)的某些組件,很少有文章著眼于整個(gè)系統(tǒng)設(shè)計(jì)。對(duì)于在線立體校正,因?yàn)閹缀跛袑?shí)際立體系統(tǒng)都存在校正問(wèn)題,研究者嘗試了一些方法,其中的一個(gè)是在匹配代價(jià)中只利用水平梯度或使用包含小的垂直視差樣本進(jìn)行匹配代價(jià)訓(xùn)練等。對(duì)于單目深度估計(jì),有監(jiān)督和無(wú)監(jiān)督方法都被用于深度學(xué)習(xí)中,輸出通常是相對(duì)深度/視差。對(duì)于立體深度估計(jì),最近的研究中,立體匹配的特征學(xué)習(xí)通過(guò)深度學(xué)習(xí)進(jìn)行替代,目前主要關(guān)注于端到端學(xué)習(xí),有2D CNNs、3D CNNs和RNNs等三種類型的架構(gòu)。其中RNN方法得到最先進(jìn)的性能,但無(wú)法在設(shè)備上運(yùn)行,近期的工作則嘗試著使立體網(wǎng)絡(luò)在設(shè)備上運(yùn)行更快。

3 系統(tǒng)概述

本文提出了一種基于智能眼鏡的深度感知計(jì)算攝影系統(tǒng)。該系統(tǒng)配備一對(duì)硬件同步的魚眼相機(jī),可拍攝場(chǎng)景圖像并將其傳輸至智能手機(jī)進(jìn)行進(jìn)一步處理。作者使用在線校準(zhǔn)和校準(zhǔn)算法估計(jì)外部和內(nèi)部參數(shù)進(jìn)行準(zhǔn)確的校準(zhǔn),使用相對(duì)視差來(lái)創(chuàng)建深度計(jì)算攝影效果,并通過(guò)共享數(shù)據(jù)集訓(xùn)練兩個(gè)網(wǎng)絡(luò)以實(shí)現(xiàn)相同的下游處理。最終,預(yù)測(cè)的視差和相應(yīng)的圖像被傳遞到渲染流水線,以創(chuàng)建最終的三維效果。

0217274c-fae3-11ed-90ce-dac502259ad0.png

4 在線校正

根據(jù)輸入的魚眼圖像,通過(guò)計(jì)算精確的對(duì)應(yīng)特征點(diǎn),然后在原始圖像和重新校正后的圖像中保持世界坐標(biāo)系與立體系統(tǒng)相對(duì),來(lái)估計(jì)兩個(gè)攝像機(jī)的旋轉(zhuǎn)角度,從而進(jìn)行在線校正。此方法通過(guò)估計(jì)相對(duì)尺度來(lái)補(bǔ)償焦距隨溫度的變化,最終使得雙視圖立體算法更加準(zhǔn)確和魯棒。其中,相對(duì)俯仰角是相對(duì)的,而絕對(duì)俯仰角是一個(gè)自由參數(shù)。

02209a84-fae3-11ed-90ce-dac502259ad0.png

4.1 Projection model - 投影模型

該部分內(nèi)容介紹了通過(guò)投影模型計(jì)算兩張圖片中點(diǎn)的相對(duì)位置和姿態(tài)。其中,對(duì)內(nèi)參矩陣和徑向畸變進(jìn)行了校正。通過(guò)將點(diǎn)投影到不同的相機(jī)中并估計(jì)其在兩張圖片中的深度,可以計(jì)算相機(jī)之間的相對(duì)方向和絕對(duì)的旋轉(zhuǎn)和偏航。通過(guò)引入尺度修正,可以進(jìn)一步約束相機(jī)之間的相對(duì)高度。

4.2 Rectification algorithm - 矯正算法

該算法通過(guò)使用Harris角點(diǎn)和層次亞像素ZSSD特征匹配器在圖像間匹配特征點(diǎn),并配合使用魯棒最小二乘法求解方程組來(lái)實(shí)現(xiàn)對(duì)圖像的矯正。該算法能夠可靠地提取到特征點(diǎn)并計(jì)算出矯正角度。算法采用四個(gè)參數(shù)模型,包括?ωx、?ωy、?ωz和?f ,并且通過(guò)內(nèi)點(diǎn)控制實(shí)現(xiàn)超約定系統(tǒng)的求解。對(duì)于每個(gè)匹配,它的表現(xiàn)很穩(wěn)定并產(chǎn)生了很好的結(jié)果。

5 Co-design of monocular and stereo networks - 單目和立體網(wǎng)絡(luò)的聯(lián)合設(shè)計(jì)

本文提出了一種新的方法來(lái)協(xié)同設(shè)計(jì)立體和單目深度網(wǎng)絡(luò),以使其輸出具有一致性,輕量級(jí)并且盡可能精確。該方法通過(guò)將單目深度網(wǎng)絡(luò)訓(xùn)練為預(yù)測(cè)相對(duì)深度和相機(jī)運(yùn)動(dòng),而不是絕對(duì)深度,來(lái)保持輸出格式的一致性。接著,作者設(shè)計(jì)了一個(gè)立體網(wǎng)絡(luò),使用相同的特征提取器來(lái)預(yù)測(cè)相對(duì)視差。為了保持一致性,作者還使用了可訓(xùn)練的縮放和偏移參數(shù),并使用一個(gè)損失函數(shù)來(lái)同時(shí)考慮單目和立體網(wǎng)絡(luò)的輸出。該方法在聯(lián)合訓(xùn)練中表現(xiàn)出很好的穩(wěn)定性和精度。

5.1 Stereo network - 立體網(wǎng)絡(luò)

作者設(shè)計(jì)了一個(gè)立體視網(wǎng)絡(luò),其組件靈感來(lái)源于經(jīng)典的和深度的立體視方法:

一個(gè)編碼器,從輸入的立體圖像中獨(dú)立提取多分辨率特征和特征 ,其中 l = 1 … L,用于 L 層特征金字塔。

利用余弦距離比較左右特征距離的三維代價(jià)體02299a3a-fae3-11ed-90ce-dac502259ad0.png

使用許多中間層將代價(jià)體和參考圖像的圖像特征作為輸入,并匯總視差信息。因?yàn)橹虚g層直接從代價(jià)體和參考圖像獲取信息,所以它們可以在立體匹配線索較弱(例如在無(wú)紋理區(qū)域)或缺失時(shí)(例如在半遮擋區(qū)域)更好地利用單眼深度線索。

粗到細(xì)解碼器以預(yù)測(cè)輸出視差圖。輸出視差圖的分辨率與輸入右圖像相同。每個(gè)解碼器模塊結(jié)合低分辨率解碼器模塊的輸出和相同分辨率中間層的輸出。

0231f662-fae3-11ed-90ce-dac502259ad0.png

5.2 Monocular network - 單目網(wǎng)絡(luò)

我們?cè)O(shè)計(jì)了一個(gè)單目深度估計(jì)網(wǎng)絡(luò),其包含三個(gè)組件:

用于提取多分辨率圖像特征f_l=1...L的編碼器;

中間層用于聚合深度信息;

粗到細(xì)的解碼器用于預(yù)測(cè)視差圖。

0242d61c-fae3-11ed-90ce-dac502259ad0.png

5.3 Shared network components - 共享網(wǎng)絡(luò)組件

作者研究了單目深度估計(jì)和立體視覺之間的聯(lián)合訓(xùn)練,從而提高了深度估計(jì)的質(zhì)量。在共享網(wǎng)絡(luò)組件方面,該文使用相同的編碼器、中間層和解碼器,同時(shí)使用立體代價(jià)體模塊,從而提高網(wǎng)絡(luò)的表現(xiàn)。為了提高效率,文章使用反向殘差模塊進(jìn)行所有層的量化,并將權(quán)重和激活量化為8位。同時(shí),輸出層保持為32位來(lái)獲得亞像素分辨率。其損失函數(shù)使用平滑L1損失和梯度損失項(xiàng)來(lái)訓(xùn)練網(wǎng)絡(luò)。

5.4 Novel training datasets - 新型訓(xùn)練數(shù)據(jù)集

本文提出了一種通過(guò)渲染內(nèi)部單目數(shù)據(jù)集來(lái)獲得立體數(shù)據(jù)集以進(jìn)行聯(lián)合訓(xùn)練的方法。為了使立體數(shù)據(jù)集具有逼真性和挑戰(zhàn)性,作者對(duì)其進(jìn)行了數(shù)據(jù)增強(qiáng)(亮度、對(duì)比度、色相、飽和度、jpeg壓縮等),并在遇到高光反射和無(wú)效區(qū)域(由深度流水線中的變形和矯正引起)時(shí)進(jìn)行了訓(xùn)練,使網(wǎng)絡(luò)能夠忽略這些干擾。文章還探討了簡(jiǎn)化立體數(shù)據(jù)集生成的方法,使得該數(shù)據(jù)集比任何現(xiàn)有的訓(xùn)練數(shù)據(jù)集都更具多樣性。

6 Novel view synthesis - 新視角合成

本文采用基于LDI的方法來(lái)實(shí)現(xiàn)新視角合成。對(duì)于立體數(shù)據(jù)集的創(chuàng)建,使用單目真實(shí)深度和彩色圖像來(lái)創(chuàng)建紋理網(wǎng)格,并渲染第二個(gè)視角。對(duì)于3D效果,使用來(lái)自立體系統(tǒng)的預(yù)測(cè)和預(yù)定義的軌跡來(lái)生成平滑的新視角視頻。其中LDI是層深度圖,可以通過(guò)LDI修復(fù)插值法推測(cè)被遮擋的幾何形狀。

7 實(shí)驗(yàn)

在本文中,作者介紹了一種新的立體視覺深度估計(jì)方法,即使用共享編碼器、中間層和解碼器的高效單目網(wǎng)絡(luò)Tiefenrausch和附加的成本體積模塊來(lái)構(gòu)建立體網(wǎng)絡(luò)Argos。對(duì)于生產(chǎn)模型,作者使用4M內(nèi)部iPhone數(shù)據(jù)集重新訓(xùn)練了Tiefenrausch,并使用FBGEMM后端進(jìn)行量化感知訓(xùn)練(QAT),從而實(shí)現(xiàn)了高精度。作者還使用Sceneflow數(shù)據(jù)集進(jìn)行了對(duì)比實(shí)驗(yàn)。

作者在三星Galaxy S8 CPU上對(duì)流水線進(jìn)行了基準(zhǔn)測(cè)試。校正流水線需要300-400ms,立體網(wǎng)絡(luò)需要大約965ms。流水線的其他部分總共需要比這兩個(gè)步驟更低的延遲。作者的模型經(jīng)過(guò)了移動(dòng)CPU優(yōu)化,但將SotA模型轉(zhuǎn)換為移動(dòng)友好的格式并不容易,也不是非常有意義,因?yàn)樗鼈儾⒉皇菫橐苿?dòng)設(shè)備設(shè)計(jì)的。為了權(quán)衡,作者在Intel(R) Xeon(R) Gold 6138 CPU @ 2.00GHz的計(jì)算機(jī)服務(wù)器上比較所有模型的運(yùn)行時(shí)間。

0254aac2-fae3-11ed-90ce-dac502259ad0.png

本文在Middlebury 2014數(shù)據(jù)集上對(duì)作者的方法與幾種SotA立體方法進(jìn)行了定量比較。作者的方法在速度上快于其他方法,并且實(shí)現(xiàn)了與SotA方法相當(dāng)?shù)男阅?。通過(guò)使用內(nèi)部渲染的立體數(shù)據(jù)集進(jìn)行訓(xùn)練,作者的性能進(jìn)一步提高,并實(shí)現(xiàn)了最佳的絕對(duì)相對(duì)誤差。作者新設(shè)計(jì)有效地從單目數(shù)據(jù)集呈現(xiàn)了立體數(shù)據(jù)集以訓(xùn)練模型。雖然作者的設(shè)計(jì)選擇可能在Middlebury等基準(zhǔn)測(cè)試上導(dǎo)致精度下降,但作者追求的是設(shè)計(jì)一個(gè)穩(wěn)健的端到端深度系統(tǒng)。作者的量化8位立體模型是首次提出的,比較模型都使用32位權(quán)重和激活。盡管存在一些不利因素,但作者還是實(shí)現(xiàn)了與SotA方法相當(dāng)?shù)男阅?,并且運(yùn)行速度更快。

本文描述了一項(xiàng)針對(duì)3D照片質(zhì)量的調(diào)查。通過(guò)渲染深度系統(tǒng)的新視角視頻進(jìn)行調(diào)查,參與者對(duì)視頻質(zhì)量進(jìn)行評(píng)分。研究結(jié)果表明,立體聲得分的平均分?jǐn)?shù)為3.44,單目深度得分的平均分?jǐn)?shù)為2.96。結(jié)果顯示,深度圖質(zhì)量有時(shí)與渲染的新視角視頻的質(zhì)量并不直接相關(guān)。作者強(qiáng)調(diào)了僅使用標(biāo)準(zhǔn)指標(biāo)來(lái)比較方法是不足以評(píng)價(jià)立體聲方法在實(shí)踐中的表現(xiàn)的

8 結(jié)論

本文介紹了一種端到端的立體深度感知系統(tǒng)的設(shè)計(jì),可以在智能手機(jī)上高效運(yùn)行。該系統(tǒng)包括了一個(gè)在線矯正算法、單目和立體視差網(wǎng)絡(luò)的協(xié)同設(shè)計(jì),以及從單目數(shù)據(jù)集中提取大型立體數(shù)據(jù)集的新方法。作者還提出了一個(gè)8位量化的立體模型,與最先進(jìn)的方法相比,在標(biāo)準(zhǔn)立體基準(zhǔn)測(cè)試中具有競(jìng)爭(zhēng)性能。

審核編輯:彭靜
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 智能手機(jī)
    +關(guān)注

    關(guān)注

    66

    文章

    18412

    瀏覽量

    179690
  • 感知系統(tǒng)
    +關(guān)注

    關(guān)注

    1

    文章

    68

    瀏覽量

    15879
  • 智能眼鏡
    +關(guān)注

    關(guān)注

    8

    文章

    639

    瀏覽量

    72672

原文標(biāo)題:CVPR2023 I 一種實(shí)用的智能眼鏡深度感知系統(tǒng)

文章出處:【微信號(hào):3D視覺工坊,微信公眾號(hào):3D視覺工坊】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    如何通過(guò)立體視覺構(gòu)建小巧輕便的深度感知系統(tǒng)

    有多種 3D 傳感器方案來(lái)實(shí)現(xiàn)深度感知系統(tǒng),包括立體視覺相機(jī)、激光雷達(dá)和TOF(飛行時(shí)間)相機(jī)。每個(gè)選擇都有其優(yōu)缺點(diǎn),其中,嵌入式深度
    的頭像 發(fā)表于 08-23 16:45 ?1281次閱讀
    如何通過(guò)<b class='flag-5'>立體</b>視覺構(gòu)建小巧輕便的<b class='flag-5'>深度</b><b class='flag-5'>感知</b><b class='flag-5'>系統(tǒng)</b>

    移動(dòng)協(xié)作機(jī)器人的RGB-D感知處理方案

    本文提出了一種用于具有雙目視覺的自主機(jī)器人的三維語(yǔ)義場(chǎng)景感知流程。該流程包括實(shí)例分割、特征匹配和點(diǎn)集配準(zhǔn)。首先,利用RGB圖像進(jìn)行單
    發(fā)表于 02-21 15:55 ?590次閱讀
    移動(dòng)協(xié)作機(jī)器人的RGB-D<b class='flag-5'>感知</b>的<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>處理方案

    一種的定制IC模擬與驗(yàn)證解決方案

    一種的定制IC模擬與驗(yàn)證解決方案如何對(duì)存儲(chǔ)器和混合信號(hào)設(shè)計(jì)進(jìn)行仿真?
    發(fā)表于 06-22 07:58

    一種防止環(huán)位置偏差的轉(zhuǎn)子結(jié)構(gòu)

    一種防止環(huán)位置偏差的轉(zhuǎn)子結(jié)構(gòu)_楊晶雪
    發(fā)表于 01-02 15:44 ?0次下載

    如何基于深度神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)個(gè)的自動(dòng)駕駛模型?

    如何基于深度神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)個(gè)的自動(dòng)駕駛模型?如何設(shè)計(jì)個(gè)基于增強(qiáng)學(xué)習(xí)的自動(dòng)駕駛決策
    的頭像 發(fā)表于 04-29 16:44 ?4835次閱讀
    如何基于<b class='flag-5'>深度</b>神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)<b class='flag-5'>一</b>個(gè)<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>的自動(dòng)駕駛模型?

    一種基于基于語(yǔ)音的對(duì)話代理

    這項(xiàng)新的專利技術(shù)旨在帶來(lái)一種基于基于語(yǔ)音的對(duì)話代理,該對(duì)話代理可以進(jìn)行更自然,多輪回的對(duì)話,從而與用戶的對(duì)話風(fēng)格和面部表情保持致。
    的頭像 發(fā)表于 09-09 14:14 ?1598次閱讀

    基于深度神經(jīng)網(wǎng)絡(luò)的圖像壓縮方法

    人工設(shè)計(jì)的算法分別進(jìn)行優(yōu)化近年來(lái),基于深度神經(jīng)網(wǎng)絡(luò)的圖像壓縮方法在圖像壓縮中取得了豐碩的成果,相比傳統(tǒng)方法,
    發(fā)表于 04-08 09:30 ?16次下載
    基于<b class='flag-5'>深度</b>神經(jīng)網(wǎng)絡(luò)的<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>圖像壓縮方法

    深度學(xué)習(xí)網(wǎng)絡(luò)人體自動(dòng)摳圖算法

    在基于立體視覺的人體建模系統(tǒng)中,背景像素的移除可以減少不必要的立體匹配計(jì)算,提高人體模型重建效率。為此,在給定大量具有前景 Alpha蒙板真值的人體圖像作為訓(xùn)練數(shù)據(jù)的前提下,提出了個(gè)
    發(fā)表于 04-21 15:29 ?10次下載
    <b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>的<b class='flag-5'>深度</b>學(xué)習(xí)網(wǎng)絡(luò)人體自動(dòng)摳圖算法

    一種對(duì)紅細(xì)胞和白細(xì)胞圖像分類任務(wù)的主動(dòng)學(xué)習(xí)工作流程

    細(xì)胞成像的分割和分類等技術(shù)是個(gè)快速發(fā)展的領(lǐng)域研究。就像在其他機(jī)器學(xué)習(xí)領(lǐng)域樣,數(shù)據(jù)的標(biāo)注是非常昂貴的,并且對(duì)于數(shù)據(jù)標(biāo)注的質(zhì)量要求也非常的高。針對(duì)這問(wèn)題,本篇文章介紹一種對(duì)紅細(xì)胞和白
    的頭像 發(fā)表于 08-13 10:27 ?1159次閱讀

    構(gòu)建的流程體系

    所謂流程的架構(gòu)體系,就是套有層次的流程
    的頭像 發(fā)表于 06-01 15:09 ?1936次閱讀
    構(gòu)建<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>的流程體系

    系統(tǒng)設(shè)計(jì)的原則

    本文提出了個(gè)旨在幫助指導(dǎo)設(shè)計(jì)分布式計(jì)算系統(tǒng)各模塊功能的原則,稱之為原則。該原則表明,考慮
    的頭像 發(fā)表于 06-15 17:28 ?868次閱讀

    Sparse4D-v3:稀疏感知的性能優(yōu)化及拓展

    極致的感知性能與極簡(jiǎn)的感知pipeline直是牽引我們持續(xù)向前的目標(biāo)。為了實(shí)現(xiàn)該目標(biāo),打造個(gè)性能優(yōu)異的
    的頭像 發(fā)表于 01-23 10:20 ?1231次閱讀
    Sparse4D-v3:稀疏<b class='flag-5'>感知</b>的性能優(yōu)化及<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>拓展

    實(shí)現(xiàn)自動(dòng)駕駛,唯有?

    ,去年行業(yè)主流方案還是輕高精地圖城區(qū)智駕,今年大家的目標(biāo)都瞄到了(End-to-End, E2E)。
    的頭像 發(fā)表于 08-12 09:14 ?544次閱讀
    實(shí)現(xiàn)自動(dòng)駕駛,唯有<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>?

    測(cè)試用例怎么寫

    編寫測(cè)試用例是確保軟件系統(tǒng)從頭到尾能夠正常工作的關(guān)鍵步驟。以下是個(gè)詳細(xì)的指南,介紹如何編寫
    的頭像 發(fā)表于 09-20 10:29 ?304次閱讀

    Mobileye自動(dòng)駕駛解決方案的深度解析

    強(qiáng)大的技術(shù)優(yōu)勢(shì)。 Mobileye的解決方案概述 1.1 什么是自動(dòng)駕駛?
    的頭像 發(fā)表于 10-17 09:35 ?255次閱讀
    Mobileye<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>自動(dòng)駕駛解決方案的<b class='flag-5'>深度</b>解析