0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

連接視覺語言大模型與端到端自動駕駛

地平線HorizonRobotics ? 來源:地平線HorizonRobotics ? 2024-11-07 15:15 ? 次閱讀

連接視覺語言大模型與端到端自動駕駛

端到端自動駕駛在大規(guī)模駕駛數(shù)據(jù)上訓(xùn)練,展現(xiàn)出很強的決策規(guī)劃能力,但是面對復(fù)雜罕見的駕駛場景,依然存在局限性,這是因為端到端模型缺乏常識知識和邏輯思維。而視覺語言多模態(tài)大模型(LargeVision-Language Models,LVLM),例如GPT-4O,已經(jīng)展現(xiàn)出極強的視覺理解能力和分析能力,可以很好的與端到端模型互為補充,充當(dāng)駕駛決策的“大腦”。

基于這個思路,我們提出了一種連接視覺語言多模態(tài)大模型和端到端模型的智駕系統(tǒng) Senna,針對端到端模型魯棒性差,泛化性弱問題,行業(yè)首創(chuàng)“大模型高維駕駛決策-端到端低維軌跡規(guī)劃”的新駕駛范式,打造“大模型 +端到端”的下一代架構(gòu),實現(xiàn)安全,高效,擬人的智能駕駛。經(jīng)多個數(shù)據(jù)集上的大量實驗證明Senna 具有業(yè)界最優(yōu)的多模態(tài)+端到端規(guī)劃性能,展現(xiàn)出強大的跨場景泛化性和可遷移能力。

概述

端到端自動駕駛在大規(guī)模駕駛數(shù)據(jù)上訓(xùn)練,展現(xiàn)出很強的決策規(guī)劃能力,但是面對復(fù)雜罕見的駕駛場景,依然存在局限性,這是因為端到端模型缺乏常識知識和邏輯思維。而視覺語言多模態(tài)大模型(Large Vision-Language Models,LVLM),例如GPT-4O,已經(jīng)展現(xiàn)出極強的視覺理解能力和分析能力,可以很好的與端到端模型互為補充,充當(dāng)駕駛決策的“大腦”?;谶@個思路,我們提出了一種連接視覺語言多模態(tài)大模型和端到端模型的智駕系統(tǒng)Senna,針對端到端模型魯棒性差,泛化性弱問題,行業(yè)首創(chuàng)“大模型高維駕駛決策-端到端低維軌跡規(guī)劃”的新駕駛范式,打造“大模型+端到端”的下一代架構(gòu),實現(xiàn)安全,高效,擬人的智能駕駛。經(jīng)多個數(shù)據(jù)集上的大量實驗證明,Senna具有業(yè)界最優(yōu)的多模態(tài)+端到端規(guī)劃性能,展現(xiàn)出強大的跨場景泛化性和可遷移能力。

Senna解決的研究問題

此前基于大模型的自動駕駛方案,往往將大模型直接作為端到端模型,即直接用大模型預(yù)測規(guī)劃軌跡或者控制信號,但是大模型并不擅長預(yù)測精準(zhǔn)的數(shù)值,因此這種方案并不一定是最優(yōu)解。此前神經(jīng)學(xué)的研究表明,人腦在做細致決策時,層次化的高維決策模塊和低維執(zhí)行模塊組成的系統(tǒng)起到了關(guān)鍵的作用。例如,當(dāng)想要左轉(zhuǎn)的駕駛員看到紅綠燈由紅變綠,大腦中首先會思考,現(xiàn)在紅綠燈變綠了,因此我可以加速啟動通過路口。然后再通過“打轉(zhuǎn)向燈”,“踩油門”等一系列動作完成通過路口這個目標(biāo)?;谏鲜鲇^察,Senna主要嘗試探索和解決三個問題:

(1)如何有效地結(jié)合多模態(tài)大模型和端到端自動駕駛模型?

wKgaoWcsaSCAanLQAAJKOrcQaug740.png

Senna采用解耦的行為決策-軌跡規(guī)劃思路,多模態(tài)大模型在大規(guī)模駕駛數(shù)據(jù)上微調(diào),以提升其對駕駛場景的理解能力,并采用自然語言輸出高維決策指令,然后端到端模型基于大模型提供的決策指令,生成具體的規(guī)劃軌跡。一方面,使用大模型預(yù)測語言化的決策指令,可以最大利用其在語言任務(wù)上預(yù)訓(xùn)練的知識和常識,生成合理的決策,并且避免預(yù)測精確數(shù)字效果欠佳的缺陷;另一方面,端到端模型更擅長精確的軌跡預(yù)測,將高維決策的任務(wù)解耦,可以降低端到端模型學(xué)習(xí)的難度,提升其軌跡規(guī)劃的精確度。

(2)如何設(shè)計一個面向駕駛?cè)蝿?wù)的多模態(tài)大模型?

wKgZoWcsaSCAQb0uAAFXJwmxIjA919.png

駕駛依賴于準(zhǔn)確的空間感知,目前常見的多模態(tài)大模型沒有針對多圖輸入進行專門優(yōu)化,此前針對駕駛?cè)蝿?wù)的大模型或者僅支持前視輸入,缺乏完整的空間感知,存在安全隱患;或者支持多圖輸入,但是并沒有進行細致的設(shè)計,或針對其有效性進行驗證。

為了解決這些問題,我們提出了Senna,Senna包含兩個模塊,一個駕駛多模態(tài)大模型 (Senna-VLM) 和一個端到端模型(Senna-E2E),相比于通用的多模態(tài)大模型,Senna-VLM針對駕駛?cè)蝿?wù)做出如下設(shè)計:首先,針對駕駛的大模型需要支持多圖從而可以輸入環(huán)視和多幀的信息,這對于準(zhǔn)確的駕駛場景理解和安全非常重要。最初,我們嘗試簡單基于LLaVA-1.5模型加入環(huán)視多圖輸入,但是效果并不符合預(yù)期。在LLaVA中,一張圖像需要占用576個token,6張圖則需要占用3456個token,這幾乎要接近最大輸入長度,導(dǎo)致圖像信息占用的token數(shù)量過多。因此Senna-VLM對圖像編碼器輸出的圖像token做進一步特征壓縮,并設(shè)計了針對環(huán)視多圖的prompt,使得Senna可以區(qū)分不同視角的圖像特征并建立空間理解能力。

(3)如何有效地訓(xùn)練面向駕駛?cè)蝿?wù)的多模態(tài)大模型?

wKgZoWcsaSCAWrRVAAKMGKWbWZU858.png

在有了適合駕駛?cè)蝿?wù)的模型設(shè)計后,有效地訓(xùn)練LVLM是最后一步。這部分包括兩方面的內(nèi)容,數(shù)據(jù)和訓(xùn)練策略。在數(shù)據(jù)方面,此前工作提出了一些策略,但是很多并不是針對規(guī)劃服務(wù),例如檢測和grouding。另外,很多數(shù)據(jù)依賴于人工標(biāo)注,這限制了數(shù)據(jù)的大規(guī)模生產(chǎn)。在本文中,我們首次驗證了不同類型的問答數(shù)據(jù)在駕駛規(guī)劃中的重要性。具體來說,我們引入了一系列面向規(guī)劃的問答數(shù)據(jù),旨在增強Senna對駕駛場景中與規(guī)劃相關(guān)的線索的理解,最終實現(xiàn)更準(zhǔn)確的規(guī)劃。這些問答數(shù)據(jù)包括駕駛場景描述、交通參與者的運動意圖預(yù)測、交通信號檢測、高維決策規(guī)劃等。我們的數(shù)據(jù)策略可以完全通過自動化流程實現(xiàn)大規(guī)模生產(chǎn)。至于訓(xùn)練策略,大多數(shù)現(xiàn)有方法采用通用數(shù)據(jù)預(yù)訓(xùn)練,然后針對駕駛?cè)蝿?wù)微調(diào)。然而,我們的實驗結(jié)果表明,這可能不是最佳選擇。我們?yōu)?Senna-VLM 提出了一種三階段訓(xùn)練策略,包括混合數(shù)據(jù)預(yù)訓(xùn)練、駕駛通用微調(diào)和駕駛決策微調(diào)。實驗結(jié)果表明,我們提出的三階段訓(xùn)練策略可以實現(xiàn)最佳的規(guī)劃性能。

Senna的關(guān)鍵創(chuàng)新

在模型層面,Senna提出層次化的規(guī)劃策略,可以充分利用大模型的常識知識和邏輯推理能力,生成準(zhǔn)確的決策指令,并通過端到端模型生成具體的軌跡。另外,Senna設(shè)計了針對環(huán)視和多圖的策略,通過圖像token壓縮和精心設(shè)計的環(huán)視prompt,有效提高了多模態(tài)大模型對駕駛場景的理解。

在數(shù)據(jù)方面,我們設(shè)計了多種可以大規(guī)模自動標(biāo)注的面向規(guī)劃的駕駛問答數(shù)據(jù),包括場景描述、交通參與者行為預(yù)測、交通信號識別以及自車決策等。這些問答數(shù)據(jù)對于Senna生成準(zhǔn)確的決策起到了關(guān)鍵作用。

在訓(xùn)練層面,我們提出三階段的大模型訓(xùn)練策略,不僅提升了Senna在駕駛場景的表現(xiàn),且有效保留了其常識知識而不至于出現(xiàn)模式坍塌的問題。

Senna的實驗及應(yīng)用效果

基于多個數(shù)據(jù)集上的大量實驗表明Senna 實現(xiàn)了state-of-the-art的規(guī)劃性能。實驗結(jié)果的亮點在于,通過使用在大規(guī)模數(shù)據(jù)集上預(yù)訓(xùn)練的權(quán)重并進行微調(diào),Senna 實現(xiàn)了顯著的性能提升,與沒有預(yù)訓(xùn)練的模型相比,平均規(guī)劃誤差大幅降低了27.12% ,碰撞率降低了33.33%,這些結(jié)果驗證了 Senna 提出的結(jié)構(gòu)化的決策規(guī)劃策略、模型結(jié)構(gòu)設(shè)計和訓(xùn)練策略的有效性。Senna強大的跨場景泛化性和可遷移能力,展現(xiàn)出成為下一代通用智駕大模型的潛力。

未來探索方向

Senna初步探索并驗證了基于語言化的決策將大模型和端到端模型結(jié)合的可行性。下一步,我們將利用更精細的語言決策,并基于決策信息以可控的方式實現(xiàn)個性化的軌跡規(guī)劃,并在可解釋性、閉環(huán)驗證等方面進一步探索優(yōu)化。相信Senna將會激發(fā)行業(yè)在該領(lǐng)域的進一步研究和突破。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 智能駕駛
    +關(guān)注

    關(guān)注

    3

    文章

    2411

    瀏覽量

    48596
  • 自動駕駛
    +關(guān)注

    關(guān)注

    782

    文章

    13616

    瀏覽量

    165899
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    2268

    瀏覽量

    2345

原文標(biāo)題:下一代“多模態(tài)大模型+端到端”架構(gòu)Senna:開創(chuàng)智駕決策規(guī)劃全新范式

文章出處:【微信號:horizonrobotics,微信公眾號:地平線HorizonRobotics】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    自動駕駛真的會來嗎?

    所需要的圖像識別、計算機視覺、深度學(xué)習(xí)等關(guān)鍵技術(shù)的投資熱度在明顯增強。另外,也已經(jīng)有公司在開發(fā)不同于普通地圖的3D地圖,能詳細道路旁邊的電線桿的位置,以及與下一個油桶、燈柱距離。對于自動駕駛的發(fā)展
    發(fā)表于 07-21 09:00

    自動駕駛系統(tǒng)要完成哪些計算機視覺任務(wù)?

    Geiger 的研究主要集中在用于自動駕駛系統(tǒng)的三維視覺理解、分割、重建、材質(zhì)與動作估計等方面。他主導(dǎo)了自動駕駛領(lǐng)域著名數(shù)據(jù)集 KITTI 及多項自動駕駛計算機
    發(fā)表于 07-30 06:49

    基于視覺的slam自動駕駛

    基于視覺的slam自動駕駛,這是我們測試的視頻《基于slam算法的智能機器人》調(diào)研分析報告項目背景分析機器人曾經(jīng)是科幻電影中的形象,可目前已經(jīng)漸漸走入我們的生活。機器人技術(shù)以包含機械、電子、自動
    發(fā)表于 08-09 09:37

    駕駛模型的發(fā)展歷程

    尋找駕駛模型的最早嘗試,至少可以追溯1989年的ALVINN
    的頭像 發(fā)表于 03-28 15:26 ?4724次閱讀
    <b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b><b class='flag-5'>駕駛</b><b class='flag-5'>模型</b>的發(fā)展歷程

    如何基于深度神經(jīng)網(wǎng)絡(luò)設(shè)計一個自動駕駛模型?

    如何基于深度神經(jīng)網(wǎng)絡(luò)設(shè)計一個自動駕駛模型?如何設(shè)計一個基于增強學(xué)習(xí)的自動駕駛決策系統(tǒng)?
    的頭像 發(fā)表于 04-29 16:44 ?4827次閱讀
    如何基于深度神經(jīng)網(wǎng)絡(luò)設(shè)計一個<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>的<b class='flag-5'>自動駕駛</b><b class='flag-5'>模型</b>?

    自動駕駛研發(fā)系統(tǒng)介紹

    Nvidia是比較早做控制車輛工作的公司,其方法訓(xùn)練CNN模型完成從單個前向攝像頭的圖像像素車輛控制的映射。 其系統(tǒng)
    的頭像 發(fā)表于 07-13 09:30 ?4858次閱讀
    <b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>的<b class='flag-5'>自動駕駛</b>研發(fā)系統(tǒng)介紹

    基于自動駕駛系統(tǒng)只能做demo嗎

    只配做demo嗎?由劍橋大學(xué)團隊創(chuàng)辦的Wayve無人駕駛軟件公司卻不這么認(rèn)為。
    的頭像 發(fā)表于 12-26 10:39 ?471次閱讀

    自動駕駛到底是什么?

    UniAD 統(tǒng)一自動駕駛關(guān)鍵任務(wù),但是的訓(xùn)練難度極大,對數(shù)據(jù)的要求和工程能力的要求比常規(guī)的技術(shù)棧要高,但是由此帶來的全局一致性讓整個系統(tǒng)變得更加簡潔,也能夠防止某個模塊進入局部最
    發(fā)表于 06-28 14:47 ?3382次閱讀
    <b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b><b class='flag-5'>自動駕駛</b>到底是什么?

    理想汽車自動駕駛模型實現(xiàn)

    理想汽車在感知、跟蹤、預(yù)測、決策和規(guī)劃等方面都進行了模型化,最終實現(xiàn)了模型。這種模型不僅
    發(fā)表于 04-12 12:17 ?392次閱讀
    理想汽車<b class='flag-5'>自動駕駛</b><b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b><b class='flag-5'>模型</b>實現(xiàn)

    佐思汽研發(fā)布《2024年自動駕駛研究報告》

    自動駕駛是直接從傳感器信息輸入(如攝像頭圖像、LiDAR等)控制命令輸出(如轉(zhuǎn)向、加減速等)映射的一套系統(tǒng),最早出現(xiàn)在1988年的A
    的頭像 發(fā)表于 04-20 11:21 ?2735次閱讀
    佐思汽研發(fā)布《2024年<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b><b class='flag-5'>自動駕駛</b>研究報告》

    理想汽車加速自動駕駛布局,成立“”實體組織

    近期,理想汽車在其智能駕駛領(lǐng)域邁出了重要一步,正式成立了專注于“自動駕駛”的實體組織,該組織規(guī)模超過200人,標(biāo)志著理想在
    的頭像 發(fā)表于 07-17 15:42 ?1279次閱讀

    實現(xiàn)自動駕駛,唯有?

    ,去年行業(yè)主流方案還是輕高精地圖城區(qū)智駕,今年大家的目標(biāo)都瞄到了(End-to-End, E2E)。
    的頭像 發(fā)表于 08-12 09:14 ?541次閱讀
    實現(xiàn)<b class='flag-5'>自動駕駛</b>,唯有<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>?

    NVIDIA Research自動駕駛模型引領(lǐng)國際挑戰(zhàn)賽

    NVIDIA 在國際計算機視覺與模式識別會議(CVPR)上展示了用于自動駕駛汽車開發(fā)的加速計算和生成式 AI 的突破技術(shù)。
    的頭像 發(fā)表于 09-09 10:11 ?454次閱讀

    Mobileye自動駕駛解決方案的深度解析

    自動駕駛技術(shù)正處于快速發(fā)展之中,各大科技公司和汽車制造商均在爭相布局,試圖在這個新興領(lǐng)域占據(jù)一席之地。Mobileye作為全球自動駕駛技術(shù)的領(lǐng)軍企業(yè)之一,憑借其獨特的
    的頭像 發(fā)表于 10-17 09:35 ?245次閱讀
    Mobileye<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b><b class='flag-5'>自動駕駛</b>解決方案的深度解析

    Waymo利用谷歌Gemini大模型,研發(fā)端自動駕駛系統(tǒng)

    邁新步,為其機器人出租車業(yè)務(wù)引入了一種基于谷歌多模態(tài)大語言模型(MLLM)“Gemini”的全新訓(xùn)練模型——“
    的頭像 發(fā)表于 10-31 16:55 ?880次閱讀