0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于Transformer的越野場景可通行區(qū)域檢測模型OFF-Net

3D視覺工坊 ? 來源:泡泡機(jī)器人 ? 作者:泡泡機(jī)器人 ? 2022-10-31 17:25 ? 次閱讀

可通行區(qū)域檢測對于自動駕駛車輛的環(huán)境感知和路徑規(guī)劃至關(guān)重要。過去十年基于學(xué)習(xí)的可通行區(qū)域檢測算法取得了很大的成功,但是基本上都是關(guān)注城市場景的可通行區(qū)域檢測。相比于規(guī)則的城市場景道路,越野場景道路復(fù)雜多變,可通行區(qū)域檢測更加困難,另外目前缺少開源的越野場景可通行檢測數(shù)據(jù)集和算法基準(zhǔn)。因此,本文開源第一個覆蓋多種越野場景的可通行區(qū)域檢測數(shù)據(jù)集,ORFD。ORFD采集了包括草原、林地、農(nóng)田和鄉(xiāng)村道路等不同場景道路,覆蓋晴天、雨天、霧天和雪天等不同無人車行駛天氣狀況,包含強(qiáng)光、日光、微光和黑暗等光照條件。ORFD一共有12198幀激光雷達(dá)點(diǎn)云和圖像對數(shù)據(jù),在圖像視角進(jìn)行了標(biāo)注,包含三種類別:可通行區(qū)域、不可通行區(qū)域和不可到達(dá)區(qū)域(如天空)。我們同時還提出了一個基于Transformer的越野場景可通行區(qū)域檢測模型OFF-Net,利用交叉注意力機(jī)制自適應(yīng)融合點(diǎn)云和圖像的多模態(tài)信息。數(shù)據(jù)集和基準(zhǔn)代碼下載鏈接:https://github.com/chaytonmin/Off-Road-Freespace-Detection。

主要工作與貢獻(xiàn)

我們開源了第一個越野場景可通行區(qū)域檢測數(shù)據(jù)集ORFD,包括草原、林地、農(nóng)田和鄉(xiāng)村道路等不同場景道路,覆蓋晴天、雨天、霧天和雪天等不同無人車行駛天氣狀況,包含強(qiáng)光、日光、微光和黑暗等光照條件。

我們提出了一個越野場景可通行區(qū)域檢測基準(zhǔn)算法OFF-Net,采用Transformer結(jié)構(gòu)聚合全局信息,設(shè)計(jì)cross-attention自適應(yīng)挖掘點(diǎn)云和圖像的多模態(tài)信息。

我們的越野場景可通行區(qū)域檢測數(shù)據(jù)集ORFD和算法基準(zhǔn)OFF-Net,有助于提高無人車在越野場景的自主行使能力。

算法流程

城市場景道路和越野場景道路對比

圖1 (a) 城市場景道路有清晰的道路邊界 (b)越野場景可通行區(qū)域難以準(zhǔn)確定義。

數(shù)據(jù)采集裝置

圖2 越野場景可通行區(qū)域檢測數(shù)據(jù)集ORFD采集裝置:Pandora 40線的激光雷達(dá),相機(jī)和激光雷達(dá)一體。聯(lián)合標(biāo)注激光雷達(dá)和相機(jī)。

越野場景可通行區(qū)域檢測數(shù)據(jù)集ORFD

圖3 越野場景可通行區(qū)域檢測數(shù)據(jù)集ORFD,包括草原、林地、農(nóng)田和鄉(xiāng)村道路等不同場景道路,覆蓋晴天、雨天、霧天和雪天等不同無人車行駛天氣狀況,包含強(qiáng)光、日光、微光和黑暗等光照條件。采集了30段道路數(shù)據(jù),一共有12198幀激光雷達(dá)點(diǎn)云和圖像對數(shù)據(jù)。在圖像視角進(jìn)行了標(biāo)注,包含三種類別:可通行區(qū)域、不可通行區(qū)域和不可到達(dá)區(qū)域(如天空)。

數(shù)據(jù)集劃分

越野場景可通行區(qū)域檢測基準(zhǔn)算法OFF-Net

圖4 提出的越野場景可通行區(qū)域檢測基準(zhǔn)算法OFF-Net。首先將激光雷達(dá)點(diǎn)云投到相機(jī)視角得到深度圖,然后計(jì)算得到法向量圖,再利用Transformer網(wǎng)絡(luò)融合法向量圖和圖像,得到道路分割結(jié)果。

實(shí)驗(yàn)結(jié)果

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1201

    瀏覽量

    24622
  • 自動駕駛
    +關(guān)注

    關(guān)注

    782

    文章

    13633

    瀏覽量

    165992

原文標(biāo)題:ORFD: 第一個開源的越野環(huán)境可通行區(qū)域檢測數(shù)據(jù)集和基準(zhǔn)

文章出處:【微信號:3D視覺工坊,微信公眾號:3D視覺工坊】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    Transformer能代替圖神經(jīng)網(wǎng)絡(luò)嗎

    Transformer作為一種在處理序列數(shù)據(jù)方面表現(xiàn)出色的深度學(xué)習(xí)模型,自其提出以來,已經(jīng)在自然語言處理(NLP)、時間序列分析等領(lǐng)域取得了顯著的成果。然而,關(guān)于Transformer是否能完全代替圖神經(jīng)網(wǎng)絡(luò)(GNN)的問題,需
    的頭像 發(fā)表于 07-12 14:07 ?359次閱讀

    Transformer語言模型簡介與實(shí)現(xiàn)過程

    在自然語言處理(NLP)領(lǐng)域,Transformer模型以其卓越的性能和廣泛的應(yīng)用前景,成為了近年來最引人注目的技術(shù)之一。Transformer模型由谷歌在2017年提出,并首次應(yīng)用于
    的頭像 發(fā)表于 07-10 11:48 ?1147次閱讀

    人臉檢測模型的精確度怎么算

    檢測是計(jì)算機(jī)視覺領(lǐng)域的一個重要研究方向,其目的是在圖像或視頻中快速準(zhǔn)確地定位人臉的位置。人臉檢測模型通常包括兩個主要步驟:人臉候選區(qū)域的生成和人臉的分類。人臉候選
    的頭像 發(fā)表于 07-04 09:14 ?422次閱讀

    Transformer模型在語音識別和語音生成中的應(yīng)用優(yōu)勢

    隨著人工智能技術(shù)的飛速發(fā)展,語音識別和語音生成作為人機(jī)交互的重要組成部分,正逐漸滲透到我們生活的各個方面。而Transformer模型,自其誕生以來,憑借其獨(dú)特的自注意力機(jī)制和并行計(jì)算能力,在
    的頭像 發(fā)表于 07-03 18:24 ?928次閱讀

    使用PyTorch搭建Transformer模型

    Transformer模型自其問世以來,在自然語言處理(NLP)領(lǐng)域取得了巨大的成功,并成為了許多先進(jìn)模型(如BERT、GPT等)的基礎(chǔ)。本文將深入解讀如何使用PyTorch框架搭建Trans
    的頭像 發(fā)表于 07-02 11:41 ?1434次閱讀

    【大語言模型:原理與工程實(shí)踐】大語言模型的基礎(chǔ)技術(shù)

    全面剖析大語言模型的核心技術(shù)與基礎(chǔ)知識。首先,概述自然語言的基本表示,這是理解大語言模型技術(shù)的前提。接著,詳細(xì)介紹自然語言處理預(yù)訓(xùn)練的經(jīng)典結(jié)構(gòu)Transformer,以及其工作原理,為構(gòu)建大語言
    發(fā)表于 05-05 12:17

    【大語言模型:原理與工程實(shí)踐】探索《大語言模型原理與工程實(shí)踐》

    《大語言模型》是一本深入探討人工智能領(lǐng)域中語言模型的著作。作者通過對語言模型的基本概念、基礎(chǔ)技術(shù)、應(yīng)用場景分析,為讀者揭開了這一領(lǐng)域的神秘面紗。本書不僅深入討論了語言
    發(fā)表于 04-30 15:35

    基于Transformer模型的壓縮方法

    基于Transformer架構(gòu)的大型模型在人工智能領(lǐng)域中發(fā)揮著日益重要的作用,特別是在自然語言處理(NLP)和計(jì)算機(jī)視覺(CV)領(lǐng)域。
    的頭像 發(fā)表于 02-22 16:27 ?599次閱讀
    基于<b class='flag-5'>Transformer</b><b class='flag-5'>模型</b>的壓縮方法

    一文詳解Transformer神經(jīng)網(wǎng)絡(luò)模型

    Transformer模型在強(qiáng)化學(xué)習(xí)領(lǐng)域的應(yīng)用主要是應(yīng)用于策略學(xué)習(xí)和值函數(shù)近似。強(qiáng)化學(xué)習(xí)是指讓機(jī)器在與環(huán)境互動的過程中,通過試錯來學(xué)習(xí)最優(yōu)的行為策略。
    發(fā)表于 02-20 09:55 ?1.2w次閱讀
    一文詳解<b class='flag-5'>Transformer</b>神經(jīng)網(wǎng)絡(luò)<b class='flag-5'>模型</b>

    基于DiAD擴(kuò)散模型的多類異常檢測工作

    現(xiàn)有的基于計(jì)算機(jī)視覺的工業(yè)異常檢測技術(shù)包括基于特征的、基于重構(gòu)的和基于合成的技術(shù)。最近,擴(kuò)散模型因其強(qiáng)大的生成能力而聞名,因此本文作者希望通過擴(kuò)散模型將異常區(qū)域重構(gòu)成正常。
    的頭像 發(fā)表于 01-08 14:55 ?1198次閱讀
    基于DiAD擴(kuò)散<b class='flag-5'>模型</b>的多類異常<b class='flag-5'>檢測</b>工作

    大語言模型背后的Transformer,與CNN和RNN有何不同

    ? 電子發(fā)燒友網(wǎng)報(bào)道(文/李彎彎)近年來,隨著大語言模型的不斷出圈,Transformer這一概念也走進(jìn)了大眾視野。Transformer是一種非常流行的深度學(xué)習(xí)模型,最早于2017年
    的頭像 發(fā)表于 12-25 08:36 ?3677次閱讀
    大語言<b class='flag-5'>模型</b>背后的<b class='flag-5'>Transformer</b>,與CNN和RNN有何不同

    基于transformer和自監(jiān)督學(xué)習(xí)的路面異常檢測方法分享

    鋪設(shè)異常檢測可以幫助減少數(shù)據(jù)存儲、傳輸、標(biāo)記和處理的壓力。本論文描述了一種基于Transformer和自監(jiān)督學(xué)習(xí)的新方法,有助于定位異常區(qū)域。
    的頭像 發(fā)表于 12-06 14:57 ?1393次閱讀
    基于<b class='flag-5'>transformer</b>和自監(jiān)督學(xué)習(xí)的路面異常<b class='flag-5'>檢測</b>方法分享

    AI Transformer模型支持機(jī)器視覺對象檢測方案

    使用機(jī)器視覺進(jìn)行對象檢測需要 AI 模型/算法在 AI 芯片、FPGA 或模塊上運(yùn)行。它們通常被稱為“人工智能引擎”。在首次訓(xùn)練后,可以部署 AI 模型以在適當(dāng)?shù)挠布线\(yùn)行,以做出預(yù)測和/或決策,通常稱為“推理”。確保硬件開發(fā)能
    發(fā)表于 11-23 10:31 ?462次閱讀
    AI <b class='flag-5'>Transformer</b><b class='flag-5'>模型</b>支持機(jī)器視覺對象<b class='flag-5'>檢測</b>方案

    關(guān)于深度學(xué)習(xí)模型Transformer模型的具體實(shí)現(xiàn)方案

    Transformer 本質(zhì)上是一個 Encoder-Decoder 架構(gòu)。因此中間部分的 Transformer 可以分為兩個部分:編碼組件和解碼組件。
    發(fā)表于 11-17 10:34 ?492次閱讀
    關(guān)于深度學(xué)習(xí)<b class='flag-5'>模型</b><b class='flag-5'>Transformer</b><b class='flag-5'>模型</b>的具體實(shí)現(xiàn)方案

    ADAS系統(tǒng)中的可行使區(qū)域Freespace到底如何檢測?

    自動駕駛有可能大大減少交通事故、道路擁堵以及相關(guān)的經(jīng)濟(jì)損失。安全的自動駕駛需要檢測周圍的障礙物、移動物體并識別駕駛區(qū)域。
    的頭像 發(fā)表于 11-15 15:53 ?469次閱讀
    ADAS系統(tǒng)中的可行使<b class='flag-5'>區(qū)域</b>Freespace到底如何<b class='flag-5'>檢測</b>?