0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

康謀分享|aiSim5基于生成式AI擴(kuò)大仿真測(cè)試范圍(終)

康謀自動(dòng)駕駛 ? 2024-05-22 13:57 ? 次閱讀

在前面的幾章節(jié)中探討了aiSim仿真合成數(shù)據(jù)的置信度,此外在場(chǎng)景重建和測(cè)試流程閉環(huán)的過(guò)程中,難免會(huì)面臨3D場(chǎng)景制作重建耗時(shí)長(zhǎng)、成本高、擴(kuò)展性低以及交通狀況復(fù)雜程度難以滿意等問(wèn)題,當(dāng)前的主要挑戰(zhàn)在于如何自動(dòng)化生成3D靜態(tài)場(chǎng)景并添加動(dòng)態(tài)實(shí)例編輯,從而有效縮短測(cè)試流程,擴(kuò)大仿真測(cè)試范圍。

wKgaomZNiUGACH0zAABL0_0fsNQ18.jpeg?source=d16d100b圖1:實(shí)際圖像wKgaomZNiUGABH0wAAA-X-ccnfA280.jpg?source=d16d100b圖2:NeRF重建場(chǎng)景

對(duì)于3D重建,目前主要的兩種解決方案為NeRF和3DGS。

一、NeRF

1、神經(jīng)輻射場(chǎng)(Neural Radiance Fields)

NeRF是將三維空間中的每個(gè)點(diǎn)的顏色和密度信息編碼為一個(gè)連續(xù)的函數(shù)并由MLP參數(shù)化。給定一個(gè)視角和三維空間中的點(diǎn),NeRF可以預(yù)測(cè)該點(diǎn)的顏色和沿視線方向的密度分布。通過(guò)對(duì)這些信息進(jìn)行體積渲染,NeRF能夠合成出新視角下的圖像。

wKgZomZNiUWAZUeYARW_QeIaDmI089.gif?source=d16d100b

2、優(yōu)勢(shì)

高保真輸出。

  • 基于NerFStudio提供了較為友好地代碼庫(kù)。
  • 相對(duì)較快的訓(xùn)練時(shí)間。
  • 對(duì)于待重建區(qū)域具有可擴(kuò)展性。

3、不足及主要挑戰(zhàn)

渲染速度緩慢。NeRF需要沿著從相機(jī)到場(chǎng)景的每條光線進(jìn)行大量的采樣和計(jì)算,以準(zhǔn)確估計(jì)場(chǎng)景的體積密度和顏色。這個(gè)過(guò)程計(jì)算密集,在NVIDIA A100上進(jìn)行了測(cè)試,全HD分辨率下,渲染一張圖像大約需要10s。

場(chǎng)景深度估計(jì)效果不理想。NeRF通過(guò)體積渲染隱式地學(xué)習(xí)了場(chǎng)景的深度信息,但這種深度信息通常是與場(chǎng)景的顏色和密度信息耦合在一起的。這意味著,如果場(chǎng)景中存在遮擋或非朗伯(non-Lambertian)反射等復(fù)雜情況,NeRF可能難以準(zhǔn)確估計(jì)每個(gè)像素的深度。

wKgaomZNiUKAGoKzAAHdHVYkELY10.jpeg?source=d16d100b

近距離物體重建質(zhì)量可能較低。這可能是由視角和分辨率不足、深度估計(jì)不夠準(zhǔn)確以及運(yùn)動(dòng)模糊遮擋等問(wèn)題造成的。

wKgZomZNiUGAL9jqAAAyc4PLlrM00.jpeg?source=d16d100b

高FOV相機(jī)校準(zhǔn)不完善導(dǎo)致的重影偽影。

wKgZomZNiUKAUsgGAAA9O87Ifug74.jpeg?source=d16d100b

當(dāng)然為了解決這些問(wèn)題研究人員通過(guò)引入深度正則化來(lái)提升NeRF深度估計(jì)的準(zhǔn)確性和穩(wěn)定性,通過(guò)優(yōu)化NeRF的結(jié)構(gòu)和算法提升渲染速度。

二、3DGS

1、3D高斯?jié)姙R(3D Gaussian Splatting)

3DGS采用三維高斯分布來(lái)表示場(chǎng)景中的點(diǎn)云數(shù)據(jù),每個(gè)點(diǎn)用一個(gè)具有均值和協(xié)方差的高斯函數(shù)來(lái)描述。通過(guò)光柵化渲染高斯函數(shù),從而生成逼真的3D場(chǎng)景圖像。

wKgaomZNiUaAfO9xARF-jfd6tiw046.gif?source=d16d100b

2、優(yōu)勢(shì)

訓(xùn)練時(shí)間短。

近似于實(shí)時(shí)的渲染。

提供高保真的輸出。

3、不足及主要挑戰(zhàn)

代碼庫(kù)友好度較低。相比于NeRFStudio,文檔的完善程度和易用性較低。

初始點(diǎn)云獲取需求高,需要精確的傳感器和復(fù)雜的數(shù)據(jù)處理流程,否則將會(huì)對(duì)3DGS的性能產(chǎn)生明顯的影響。

wKgaomZNiUKAWR4mAABabi0v3BU54.jpeg?source=d16d100b

深度估計(jì)同樣不足,主要可能有幾個(gè)原因:在優(yōu)化過(guò)程中傾向于獨(dú)立優(yōu)化每個(gè)高斯點(diǎn),導(dǎo)致在少量圖像下出現(xiàn)過(guò)擬合;由于缺乏全局的幾何信息,導(dǎo)致在大型場(chǎng)景下或復(fù)雜幾何結(jié)構(gòu)重建時(shí)深度估計(jì)不準(zhǔn)確;初始點(diǎn)云的深度信息不夠準(zhǔn)確等。

wKgZomZNiUKAF8BbAAAtPgDvA8Y59.jpeg?source=d16d100b

相機(jī)模型支持受限。目前3DGS主要支持針孔相機(jī)模型,雖然理論上可以推導(dǎo)出其他相機(jī)模型的3DGS版本,但還需要后續(xù)的實(shí)驗(yàn)驗(yàn)證其有效性和準(zhǔn)確性。

重建區(qū)域可擴(kuò)展受限,主要是缺乏LiDAR覆蓋區(qū)域之外的幾何信息導(dǎo)致的不完整重建以及大型城市場(chǎng)景重建的大量計(jì)算。

wKgZomZNiUKAMjSwAABg5f2-Rmc20.jpeg?source=d16d100b

集成和資源密集的挑戰(zhàn),目前3DGS集成通常依賴Python接口;3DGS在運(yùn)行時(shí)可能會(huì)占用大量的VRAM。

通過(guò)優(yōu)化超參數(shù)和采用新方法,如Scaffold-GS,可能有助于減少內(nèi)存需求,提高在大型場(chǎng)景下的處理能力。

三、操作方法

1、訓(xùn)練流程

第一步:輸入——相機(jī)視頻數(shù)據(jù);自車運(yùn)動(dòng)數(shù)據(jù);校準(zhǔn)數(shù)據(jù);用于深度正則化的LiDAR點(diǎn)云數(shù)據(jù);

第二步:移除動(dòng)態(tài)對(duì)象:創(chuàng)建分割圖來(lái)識(shí)別和遮罩圖像中的不同對(duì)象和區(qū)域;對(duì)動(dòng)態(tài)對(duì)象進(jìn)行自動(dòng)注釋*(康謀aiData工具鏈);

wKgaomZNiUKAPHj0AABR3iDpRRw00.jpeg?source=d16d100b

第三步: 進(jìn)行NeRF或Gaussian splatting。

NeRF:

可以使用任何攝像頭模型,示例中使用的是MEI相機(jī)模型;

采用Block-NeRF進(jìn)行大規(guī)模重建;

嵌入不同的氣候條件。

Gaussian splatting:

將輸入的相機(jī)轉(zhuǎn)化為針孔相機(jī)模型;

可以從COLMAP或LiDAR中獲得初始點(diǎn)云;

采用Block-Splatting進(jìn)行大規(guī)模重建。

2、添加動(dòng)態(tài)對(duì)象

在NeRF和3DGS生成靜態(tài)場(chǎng)景后,aiSim5將基于外部渲染API進(jìn)一步增加動(dòng)態(tài)元素,不僅可以重建原始場(chǎng)景,也可以根據(jù)測(cè)試需求構(gòu)建不同的交通狀態(tài)。

wKgZomZNiUKAfGjJAAGn0IU-HmY664.png?source=d16d100b

aiSim5中基于NeRF/3DGS場(chǎng)景細(xì)節(jié)。

wKgaomZNiUKAcihmAABPlQRBgdM82.jpeg?source=d16d100b圖13:網(wǎng)格投射陰影wKgaomZNiUOAVX_KAABfuuIWSE477.jpeg?source=d16d100b圖14:車下環(huán)境遮蔽

3、效果展示

在aiSim5中完成動(dòng)態(tài)對(duì)象的添加后,可以自由的在地圖場(chǎng)景中更改交通狀態(tài),用于感知/規(guī)控等系統(tǒng)的SiL/HiL測(cè)試。

wKgaomZNiUuAb-xcAdsV8tb-Pgg460.gif?source=d16d100b圖15:aiSim5運(yùn)行NeRF城市場(chǎng)景1wKgZomZNiUiAR4gGAba78GiRSyk276.gif?source=d16d100b圖16:aiSim5運(yùn)行NeRF城市場(chǎng)景2


作者介紹

崔工

康謀科技仿真測(cè)試業(yè)務(wù)技術(shù)主管,擁有超過(guò)5年的汽車仿真測(cè)試及自動(dòng)駕駛技術(shù)研發(fā)經(jīng)驗(yàn),熟練掌握仿真測(cè)試工具和平臺(tái),如aiSim、HEEX等,能有效評(píng)估和優(yōu)化自動(dòng)駕駛系統(tǒng)的性能和安全性。擁有出色的跨文化溝通能力,成功帶領(lǐng)團(tuán)隊(duì)完成多項(xiàng)海外技術(shù)合作項(xiàng)目,加速了公司在自動(dòng)駕駛技術(shù)上的國(guó)際化進(jìn)程。作為技術(shù)團(tuán)隊(duì)的核心,領(lǐng)導(dǎo)并實(shí)施過(guò)大規(guī)模的自動(dòng)駕駛仿真測(cè)試項(xiàng)目,對(duì)于車輛行為建模、環(huán)境模擬以及故障診斷具有獨(dú)到見解。擅長(zhǎng)運(yùn)用大數(shù)據(jù)分析和人工智能技術(shù),優(yōu)化仿真測(cè)試流程,提高測(cè)試效率和結(jié)果的準(zhǔn)確性。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 測(cè)試
    +關(guān)注

    關(guān)注

    8

    文章

    4927

    瀏覽量

    125956
  • 仿真測(cè)試
    +關(guān)注

    關(guān)注

    0

    文章

    64

    瀏覽量

    11277
  • 自動(dòng)駕駛
    +關(guān)注

    關(guān)注

    781

    文章

    13449

    瀏覽量

    165278
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    分享 | 汽車仿真AI的結(jié)合應(yīng)用

    實(shí)現(xiàn)高質(zhì)量的虛擬傳感器輸出是自動(dòng)駕駛領(lǐng)域的一項(xiàng)關(guān)鍵挑戰(zhàn),然而傳統(tǒng)方案對(duì)廣角鏡頭的渲染和處理等方面仍存在一定的局限性。為此,為您介紹aiSim通用高斯?jié)姙R渲染器如何打破限制,在自動(dòng)駕駛仿真
    的頭像 發(fā)表于 09-11 09:24 ?1271次閱讀
    <b class='flag-5'>康</b><b class='flag-5'>謀</b>分享 | 汽車<b class='flag-5'>仿真</b>與<b class='flag-5'>AI</b>的結(jié)合應(yīng)用

    科技異構(gòu)算力組合,破局生成AI算力挑戰(zhàn)

    ,“此芯P1”不僅異構(gòu)集成了Armv9 CPU核心與Arm Immortalis GPU,還搭載了安科技(中國(guó))有限公司(以下簡(jiǎn)稱“安科技”)“周易”NPU等自研業(yè)務(wù)產(chǎn)品。憑借高能效的異構(gòu)算力資源、系統(tǒng)級(jí)的安全保障以及強(qiáng)大的技術(shù)生態(tài)支持,“此芯P1”將更好地滿足
    的頭像 發(fā)表于 08-13 09:12 ?423次閱讀

    自動(dòng)駕駛聯(lián)合仿真——功能模型接口FMI(

    本文帶您了解,如何在aiSim中,通過(guò)UDP和aiSim車輛動(dòng)力學(xué)API(Vehicle Dynamics Interface, VDI)來(lái)實(shí)現(xiàn)和外部的FMU車輛動(dòng)力學(xué)模型的聯(lián)合仿真?
    的頭像 發(fā)表于 08-07 10:19 ?2475次閱讀
    自動(dòng)駕駛聯(lián)合<b class='flag-5'>仿真</b>——功能模型接口FMI(<b class='flag-5'>終</b>)

    分享 | 自動(dòng)駕駛聯(lián)合仿真——功能模型接口FMI(三)

    功能模型接口是一個(gè)開放且獨(dú)立于工具的標(biāo)準(zhǔn),便于實(shí)現(xiàn)自動(dòng)駕駛仿真工具間的模型交換和聯(lián)合仿真。本文以aiSim為例,來(lái)展示如何建立一個(gè)FMU
    的頭像 發(fā)表于 07-10 15:52 ?1227次閱讀
    <b class='flag-5'>康</b><b class='flag-5'>謀</b>分享 | 自動(dòng)駕駛聯(lián)合<b class='flag-5'>仿真</b>——功能模型接口FMI(三)

    生成AI與傳統(tǒng)AI的主要區(qū)別

    隨著人工智能技術(shù)的飛速發(fā)展,生成AI(Generative AI)逐漸嶄露頭角,并與傳統(tǒng)AI(也稱為“規(guī)則驅(qū)動(dòng)的
    的頭像 發(fā)表于 07-05 17:35 ?852次閱讀

    原來(lái)這才是【生成AI】??!

    隨著ChatGPT、文心一言等AI產(chǎn)品的火爆,生成AI已經(jīng)成為了大家茶余飯后熱議的話題??墒牵瑸槭裁匆?b class='flag-5'>AI前面加上“
    的頭像 發(fā)表于 06-05 08:04 ?290次閱讀
    原來(lái)這才是【<b class='flag-5'>生成</b><b class='flag-5'>式</b><b class='flag-5'>AI</b>】??!

    Snowflake洽談收購(gòu)Reka AI,進(jìn)軍生成AI領(lǐng)域

    軟件巨頭Snowflake近日傳出消息,正在與初創(chuàng)公司Reka AI洽談收購(gòu)事宜,預(yù)計(jì)收購(gòu)金額將超過(guò)10億美元。此舉標(biāo)志著Snowflake正積極布局生成AI服務(wù)領(lǐng)域,以
    的頭像 發(fā)表于 05-20 09:29 ?527次閱讀

    IBM與SAP深化生成AI領(lǐng)域合作

    近日,IBM與SAP宣布將進(jìn)一步擴(kuò)大他們的合作范圍,共同在生成人工智能(AI)領(lǐng)域進(jìn)行深度探索。此次合作的核心在于,雙方將共同為SAP的R
    的頭像 發(fā)表于 05-13 09:19 ?388次閱讀

    分享 | aiSim5仿真場(chǎng)景重建感知置信度評(píng)估(三)

    aiSim5能重建高精度的賽道、車庫(kù)、高速公路等真實(shí)交通場(chǎng)景,用于測(cè)試和訓(xùn)練ADAS/AD系統(tǒng)。通過(guò)全局行動(dòng)日志,能將駕駛數(shù)據(jù)轉(zhuǎn)化為場(chǎng)景重建,車道線檢測(cè)算法和多目標(biāo)檢測(cè)算法在仿真與現(xiàn)實(shí)世界的相關(guān)性
    的頭像 發(fā)表于 05-08 16:59 ?2303次閱讀
    <b class='flag-5'>康</b><b class='flag-5'>謀</b>分享 | <b class='flag-5'>aiSim5</b><b class='flag-5'>仿真</b>場(chǎng)景重建感知置信度評(píng)估(三)

    分享|aiSim5激光雷達(dá)LiDAR模型驗(yàn)證方法(二)

    aiSim中的LiDAR是一種基于光線追蹤的傳感器,能夠模擬真實(shí)LiDAR發(fā)射的激光束,將會(huì)生成LASv1.4標(biāo)準(zhǔn)格式的3D點(diǎn)云,包含了方位角、俯仰角和距離等。aiSim能夠模擬LiDAR單態(tài)
    的頭像 發(fā)表于 04-24 14:58 ?734次閱讀
    <b class='flag-5'>康</b><b class='flag-5'>謀</b>分享|<b class='flag-5'>aiSim5</b>激光雷達(dá)LiDAR模型驗(yàn)證方法(二)

    分享 | aiSim5 物理相機(jī)傳感器模型驗(yàn)證方法(一)

    aiSim5獨(dú)有的實(shí)時(shí)渲染引擎能夠滿足對(duì)物理精確環(huán)境和天氣模擬的所有要求,具有完全的決定性和可重復(fù)性。本文分享了aiSim5基于物理的相機(jī)模型驗(yàn)證其與真實(shí)世界的相關(guān)性的方法,歡迎查
    的頭像 發(fā)表于 04-10 15:13 ?302次閱讀
    <b class='flag-5'>康</b><b class='flag-5'>謀</b>分享 | <b class='flag-5'>aiSim5</b> 物理相機(jī)傳感器模型驗(yàn)證方法(一)

    產(chǎn)品 | 為ADAS/AD開創(chuàng)的次世代AutoGI仿真工具

    aiSim5作為開創(chuàng)性ADAS/AD仿真模擬工具,配備高度優(yōu)化的傳感器模擬,提供確定且可重復(fù)的環(huán)境模擬支持,為下一代仿真工具設(shè)定了新的標(biāo)
    的頭像 發(fā)表于 01-29 17:50 ?555次閱讀
    <b class='flag-5'>康</b><b class='flag-5'>謀</b>產(chǎn)品 | 為ADAS/AD開創(chuàng)的次世代AutoGI<b class='flag-5'>仿真</b>工具

    科技趙永超:生成AI加速落地,行業(yè)應(yīng)用創(chuàng)新從“芯”突破

    又到歲末年初時(shí),電子發(fā)燒友網(wǎng)策劃《2024半導(dǎo)體產(chǎn)業(yè)展望》專題,收到了數(shù)十位國(guó)內(nèi)外半導(dǎo)體創(chuàng)新領(lǐng)袖企業(yè)高管的前瞻觀點(diǎn)。此次電子發(fā)燒友網(wǎng)特別采訪了安科技智能物聯(lián)及汽車業(yè)務(wù)線負(fù)責(zé)人趙永超,解讀當(dāng)下生成
    的頭像 發(fā)表于 12-26 14:32 ?1124次閱讀
    安<b class='flag-5'>謀</b>科技趙永超:<b class='flag-5'>生成</b><b class='flag-5'>式</b><b class='flag-5'>AI</b>加速落地,行業(yè)應(yīng)用創(chuàng)新從“芯”突破

    生成AI技術(shù)的應(yīng)用前景

    生成 AI(人工智能)與我們熟知的 AI 有何不同?這篇文章將為我們一探究竟!
    的頭像 發(fā)表于 11-29 12:20 ?1132次閱讀

    利用 NVIDIA Jetson 實(shí)現(xiàn)生成 AI

    交互速率運(yùn)行的 Llama-2-70B 模型。 圖 1. 領(lǐng)先的生成 AI 模型在? Jetson AGX Orin 上的推理性能 如要在 Jetson 上快速測(cè)試最新的模型和應(yīng)用,
    的頭像 發(fā)表于 11-07 21:25 ?775次閱讀
    利用 NVIDIA Jetson 實(shí)現(xiàn)<b class='flag-5'>生成</b><b class='flag-5'>式</b> <b class='flag-5'>AI</b>