0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

一種交通場(chǎng)景下的行人檢測(cè)方法

我快閉嘴 ? 來(lái)源:電子產(chǎn)品世界 ? 作者:何許梅 舒小華 ? 2021-05-02 09:55 ? 次閱讀

作者:何許梅,舒小華,谷志茹,韓 逸,肖習(xí)雨

0 引言

行人檢測(cè)是目標(biāo)檢測(cè)領(lǐng)域中重要的研究課題,其在智能駕駛系統(tǒng)、視頻監(jiān)控、人流量密度監(jiān)測(cè)等領(lǐng)域有廣泛應(yīng)用。但由于行人背景的復(fù)雜以及個(gè)體本身的差異,行人檢測(cè)成為目標(biāo)檢測(cè)領(lǐng)域的研究難點(diǎn)之一。

目前行人檢測(cè)方法主要分為兩類:傳統(tǒng)的行人識(shí)別主要通過(guò)人工設(shè)計(jì)特征結(jié)合分類器的方式進(jìn)行。比較經(jīng)典的方法有HOG+SVM、HOG+LBP 等。此類方法可以避免行人遮擋帶來(lái)的影響,但是泛化能力和準(zhǔn)確性較低,難以滿足實(shí)際需求。另一類是基于深度學(xué)習(xí)的方法。通過(guò)多層卷積神經(jīng)網(wǎng)絡(luò)(CNN) 對(duì)行人進(jìn)行分類和定位。與傳統(tǒng)特征算子相比,CNN 能根據(jù)輸入的圖像自主學(xué)習(xí)特征,提取圖像中更豐富和更抽象的特征。目前已有許多基于深度學(xué)習(xí)的目標(biāo)檢測(cè)框架,如R-CNN(Region Convolutional Neural Network) 系列、YOLO(You Look at Once) 系列。R-CNN 系列算法又被稱為二階段算法,該類算法通過(guò)網(wǎng)絡(luò)找出待檢測(cè)目標(biāo)可能存在的位置,即疑似區(qū)域,然后利用特征圖內(nèi)的特征信息對(duì)目標(biāo)進(jìn)行分類,優(yōu)點(diǎn)是檢測(cè)準(zhǔn)確率較高,但實(shí)時(shí)性較差。YOLO 系列算法又稱為一階段算法,此類算法所有工作過(guò)程在一個(gè)網(wǎng)絡(luò)內(nèi)實(shí)現(xiàn),采用端到端的方式,將目標(biāo)檢測(cè)問(wèn)題轉(zhuǎn)換為回歸問(wèn)題,使其網(wǎng)絡(luò)的實(shí)時(shí)性得到了較好的提高,但準(zhǔn)確率卻不及Faster R-CNN(Faster Region Convolutional Neural Network,更快速的區(qū)域卷積神經(jīng)網(wǎng)絡(luò))。

本論文借鑒目標(biāo)檢測(cè)的R-CNN 系列算法,在Faster R-CNN 網(wǎng)絡(luò)的第一層卷積層前加入一個(gè)預(yù)處理層,其次使用K-means 算法聚類分析anchor 框中行人的寬高比,選出適合行人的寬高比作為anchor 的尺寸,提出交通場(chǎng)景下基于Faster R-CNN 的行人檢測(cè)算法。所提方法在自制的交通場(chǎng)景下的數(shù)據(jù)集上進(jìn)行測(cè)試,實(shí)驗(yàn)表明網(wǎng)絡(luò)的檢測(cè)效果有明顯提升。

1 Faster R-CNN檢測(cè)方法

Faster R-CNN 的檢測(cè)框架如圖1 所示。其檢測(cè)流程主要分為4 部分:卷積網(wǎng)絡(luò)、RPN(Region Proposal Network)、感興趣區(qū)域池化(RoI Pooling) 以及目標(biāo)檢測(cè)分類。

一種交通場(chǎng)景下的行人檢測(cè)方法

卷積網(wǎng)絡(luò)由卷積層、池化層和輸出層構(gòu)成,各網(wǎng)絡(luò)層之間權(quán)值共享,從訓(xùn)練的數(shù)據(jù)集中學(xué)習(xí)并自動(dòng)提取目標(biāo)特征。與傳統(tǒng)手工設(shè)計(jì)特征相比,具有更好的泛化能力。

RPN 使用一個(gè)3×3 的塊在最后一個(gè)卷積層輸出的特征圖上滑動(dòng)來(lái)獲得區(qū)域建議框即anchor 框,F(xiàn)asterR-CNN中的anchor 框有3 種比例尺寸,分別為0.5、1、2。

Faster R-CNN 的全連接層需要固定大小的輸入,因此通過(guò)RoI 池化將不同大小的RoI 轉(zhuǎn)成固定的大小。圖2 為RoI 的池化過(guò)程。

一種交通場(chǎng)景下的行人檢測(cè)方法

在檢測(cè)分類階段,分類函數(shù)計(jì)算得分,得到目標(biāo)的所屬類別,同時(shí)通過(guò)邊界框回歸計(jì)算出檢測(cè)框的位置偏移量,得到更精確的位置。

2 改進(jìn)的行人檢測(cè)方法

Faster R-CNN 是針對(duì)通用目標(biāo)的檢測(cè)網(wǎng)絡(luò),識(shí)別的類別數(shù)為20,但在行人檢測(cè)中只需要識(shí)別“行人”及“背景”這兩個(gè)類別。由于圖片中的行人在圖片中所占的比例較小,因此設(shè)計(jì)一個(gè)預(yù)處理層,提取一層底層特征(本文提取紋理特征),再與原始圖像一起輸入到卷積網(wǎng)絡(luò)中,能夠減少訓(xùn)練所需的時(shí)間。

2.1 預(yù)處理層

選擇傳統(tǒng)行人檢測(cè)方法中的紋理特征(LBP 特征) 作為預(yù)處理部分要提取的特征。LBP 特征描述了圖片的局部紋理,它以每個(gè)像素值為中心取一個(gè)局部鄰域區(qū)域,比較該區(qū)域內(nèi)的每個(gè)像素的灰度值與中心像素的灰度值,得到一個(gè)二進(jìn)制碼,即該中心像素的LBP 值。但會(huì)導(dǎo)致二進(jìn)制模式種類過(guò)多,所以等價(jià)模式(Uniform Pattern) 應(yīng)運(yùn)而生。等價(jià)LBP(ULBP) 在LBP 算子的基礎(chǔ)上,統(tǒng)計(jì)二進(jìn)制數(shù)中“01”或“10”跳變的次數(shù),若跳變次數(shù)在2 次以內(nèi),則稱為一個(gè)等價(jià)模式類,定義式為:

一種交通場(chǎng)景下的行人檢測(cè)方法

式中, gp 表示鄰域像素值, gc 表示中心像素值,U(LBP ) P,R 代表“01”或“10”的跳變次數(shù)。

從圖3 中可以看出,圖像中行人與背景的區(qū)別轉(zhuǎn)換成了紋理上的差異。

(a)原圖

(b)ULBP圖

圖3 原圖與ULBP圖

2.2 anchor框聚類分析

使用k-means 聚類對(duì)訓(xùn)練集中所有行人目標(biāo)的真實(shí)框進(jìn)行聚類分析。anchor 框聚類分析算法的主要流程:

Step1:將訓(xùn)練集中所有目標(biāo)框的寬高構(gòu)成數(shù)據(jù)集D,再?gòu)腄 中隨機(jī)選擇一個(gè)聚類中心ci false;

Step2:求D 中每個(gè)樣本s 到ci 的距離,記為di ,將使di 最小的那個(gè)樣本歸到ci 中;

Step4:循環(huán)執(zhí)行Step2 和Step3,直到聚類中心不變。

取出所有行人標(biāo)注框的坐標(biāo)信息,計(jì)算出每一個(gè)標(biāo)注框的寬和高,并對(duì)其進(jìn)行聚類統(tǒng)計(jì),這里取聚類數(shù)k = 3 。隨后,計(jì)算寬與高的比值,使用統(tǒng)計(jì)直方圖的方法求出其均值,得到寬高比的均值μ = 0.39 ,也就是說(shuō)訓(xùn)練集中目標(biāo)的anchor 框的合適的寬高比是0.39,即w ≈ 0.39h。圖 4 為行人 anchor 框的寬高統(tǒng)計(jì)結(jié)果。

因此,本文將原Faster R-CNN 算法中anchor 框的寬高比修改為(0.39:1)。

一種交通場(chǎng)景下的行人檢測(cè)方法

a)寬高統(tǒng)計(jì)圖

一種交通場(chǎng)景下的行人檢測(cè)方法

(b)寬高比統(tǒng)計(jì)圖

圖4 寬高聚類分析

3 實(shí)驗(yàn)結(jié)果與分析

3.1 實(shí)驗(yàn)數(shù)據(jù)集

實(shí)驗(yàn)數(shù)據(jù)集來(lái)源有:車載攝像頭拍攝的圖片、手機(jī)拍攝的圖片,選取光照條件比較好的圖片作為數(shù)據(jù)集,采用LabelImg 圖像標(biāo)注工具對(duì)采集到的圖片進(jìn)行標(biāo)注,標(biāo)注的區(qū)域包含行人的輪廓,得到帶標(biāo)簽的行人數(shù)據(jù)集,共計(jì)1 304 張。標(biāo)簽名統(tǒng)一采用person 表示。在模型的訓(xùn)練階段,選取數(shù)據(jù)集的80% 來(lái)訓(xùn)練模型,20% 作為測(cè)試集。部分實(shí)驗(yàn)數(shù)據(jù)集如圖5 所示。

圖5 數(shù)據(jù)集樣本

3.2 實(shí)驗(yàn)平臺(tái)及訓(xùn)練

實(shí)驗(yàn)所使用的軟硬件環(huán)境如表1 所示。

表1 軟硬件配置

一種交通場(chǎng)景下的行人檢測(cè)方法

訓(xùn)練參數(shù)如表2 所示。

表2 訓(xùn)練參數(shù)設(shè)置

一種交通場(chǎng)景下的行人檢測(cè)方法

3.3 實(shí)驗(yàn)結(jié)果分析

實(shí)驗(yàn)采用平均準(zhǔn)確度(mAP)作為判斷算法性能的標(biāo)準(zhǔn)。在自制的數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn),檢測(cè)精度達(dá)到了90.1%。所提方法檢測(cè)結(jié)果與直接使用Faster R-CNN的檢測(cè)效果對(duì)比如圖6 所示,圖6(a) 表示直接使用Faster R-CNN 的檢測(cè)效果,圖6(b) 表示所提算法的檢測(cè)效果,通過(guò)左右圖片對(duì)比可以看出,使用所提算法檢測(cè)出來(lái)的目標(biāo)個(gè)數(shù)要優(yōu)于調(diào)整前的檢測(cè)個(gè)數(shù)。

(a) Faster R-CNN檢測(cè)結(jié)果

(b)本文方法結(jié)果

圖6 測(cè)試結(jié)果對(duì)比

為了比較調(diào)整寬高比對(duì)模型準(zhǔn)確率的影響,在自制數(shù)據(jù)集上對(duì)原算法和所提算法分別訓(xùn)練40 000 次。得到的檢測(cè)準(zhǔn)確率如表3 所示,所提算法的準(zhǔn)確率較原算法提高了1.8%。

表3 調(diào)整寬高比前后測(cè)試結(jié)果

一種交通場(chǎng)景下的行人檢測(cè)方法

4 結(jié)語(yǔ)

以Faster R-CNN 為基礎(chǔ),通過(guò)在卷積層之前加入一個(gè)預(yù)處理層成功實(shí)現(xiàn)行人檢測(cè)的目標(biāo)。以自制數(shù)據(jù)集為訓(xùn)練和測(cè)試網(wǎng)絡(luò)所需的數(shù)據(jù),針對(duì)漏檢和誤檢,提出將紋理特征作為底層特征對(duì)原圖進(jìn)行預(yù)處理,同時(shí)使用K-means 算法對(duì)行人寬高比進(jìn)行統(tǒng)計(jì)分析,得出適合數(shù)據(jù)集中行人的寬高比尺寸,達(dá)到降低漏檢的目的。實(shí)驗(yàn)測(cè)試結(jié)果表明,本文算法可以有效提高交通場(chǎng)景下行人檢測(cè)的準(zhǔn)確率,在漏檢率和誤檢率上,分別提高了5%、6.1%。但存在訓(xùn)練樣本還不夠豐富,因此下一步研究工作的重點(diǎn)將放在提高檢測(cè)模型的實(shí)時(shí)性和魯棒性上。
責(zé)任編輯:tzh

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 視頻監(jiān)控
    +關(guān)注

    關(guān)注

    17

    文章

    1696

    瀏覽量

    64715
  • 網(wǎng)絡(luò)
    +關(guān)注

    關(guān)注

    14

    文章

    7387

    瀏覽量

    88208
  • 檢測(cè)
    +關(guān)注

    關(guān)注

    5

    文章

    4348

    瀏覽量

    91099
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5422

    瀏覽量

    120587
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    基于稀疏編碼的遷移學(xué)習(xí)及其在行人檢測(cè)中的應(yīng)用

    定進(jìn)展,但大都需要大量的訓(xùn)練數(shù)據(jù).針對(duì)這問(wèn)題,提出了一種基于遷移學(xué)習(xí)的半監(jiān)督行人分類方法:首先基于稀疏編碼,從任意的未標(biāo)記樣本中,學(xué)習(xí)到
    發(fā)表于 04-24 09:48

    如何設(shè)計(jì)一種基于DSP的車輛碰撞聲檢測(cè)裝置?

    本文采用小波分析和模式識(shí)別方法分析車輛噪聲信號(hào),設(shè)計(jì)了一種基于DSP的車輛碰撞聲檢測(cè)裝置,該裝置能有效檢測(cè)車輛碰撞事件,實(shí)現(xiàn)交通事故的自動(dòng)識(shí)
    發(fā)表于 05-12 06:32

    一種基于圖像平移的目標(biāo)檢測(cè)框架

    1、摘要近年來(lái),在深度卷積神經(jīng)網(wǎng)絡(luò)(CNNs)的幫助,圖像和視頻監(jiān)控在智能交通系統(tǒng)(ITS)中取得了長(zhǎng)足的進(jìn)展。作為一種先進(jìn)的感知方法,智能交通
    發(fā)表于 08-31 07:43

    MATLAB的行人目標(biāo)檢測(cè)方法有哪些?

    MATLAB的行人目標(biāo)檢測(cè)方法有哪些,就是主要的方法,基于背景的,基于目標(biāo)的,還有其他的。都有哪些?
    發(fā)表于 08-23 16:30

    基于車載視覺(jué)的行人檢測(cè)與跟蹤方法

    為提高城市交通環(huán)境下車輛主動(dòng)安全性,保障行人安全,提出了基于車載視覺(jué)傳感器的行人保護(hù)方法。利用Adaboost 算法實(shí)現(xiàn)行人的快速
    發(fā)表于 03-29 17:46 ?3143次閱讀
    基于車載視覺(jué)的<b class='flag-5'>行人</b><b class='flag-5'>檢測(cè)</b>與跟蹤<b class='flag-5'>方法</b>

    一種多點(diǎn)脈搏信號(hào)檢測(cè)方法

    一種多點(diǎn)脈搏信號(hào)檢測(cè)方法:
    發(fā)表于 03-30 15:41 ?22次下載
    <b class='flag-5'>一種</b>多點(diǎn)脈搏信號(hào)<b class='flag-5'>檢測(cè)</b><b class='flag-5'>方法</b>

    一種基于交通視頻的攝像機(jī)標(biāo)定方法

    本文介紹了一種線性模型的攝像機(jī)標(biāo)定方法。在獲取交通視頻的基礎(chǔ)上,利用實(shí)際路面上的參照物和圖像處理的基本知識(shí)抽象出交通視頻中的像素行和路面實(shí)
    發(fā)表于 05-29 16:58 ?83次下載
    <b class='flag-5'>一種</b>基于<b class='flag-5'>交通</b>視頻的攝像機(jī)標(biāo)定<b class='flag-5'>方法</b>

    一種簡(jiǎn)單背景的快速邊緣檢測(cè)方法_周恩明

    一種簡(jiǎn)單背景的快速邊緣檢測(cè)方法_周恩明
    發(fā)表于 03-19 11:46 ?0次下載

    加密場(chǎng)景一種測(cè)試方法

    加密場(chǎng)景一種測(cè)試方法
    發(fā)表于 09-07 11:07 ?3次下載
    加密<b class='flag-5'>場(chǎng)景</b><b class='flag-5'>下</b>的<b class='flag-5'>一種</b>測(cè)試<b class='flag-5'>方法</b>

    基于改進(jìn)型LBP特征的監(jiān)控視頻行人檢測(cè)

    。由于光線,顏色,尺度和姿勢(shì)等各方面的差別,行人檢測(cè)個(gè)具有挑戰(zhàn)性的問(wèn)題。有效特征的提取是這個(gè)問(wèn)題的關(guān)鍵。本文提出了一種基于改進(jìn)型的局部三值模式( LTP)特征的
    發(fā)表于 11-15 10:51 ?11次下載
    基于改進(jìn)型LBP特征的監(jiān)控視頻<b class='flag-5'>行人</b><b class='flag-5'>檢測(cè)</b>

    一種改進(jìn)的基于卷積神經(jīng)網(wǎng)絡(luò)的行人檢測(cè)方法

    為了在行人檢測(cè)任務(wù)中使卷積神經(jīng)網(wǎng)絡(luò)(CNN)選擇出更優(yōu)模型并獲得定位更準(zhǔn)確的檢測(cè)框,提出一種改進(jìn)的基于卷積神經(jīng)網(wǎng)絡(luò)的行人
    發(fā)表于 12-01 15:23 ?0次下載
    <b class='flag-5'>一種</b>改進(jìn)的基于卷積神經(jīng)網(wǎng)絡(luò)的<b class='flag-5'>行人</b><b class='flag-5'>檢測(cè)</b><b class='flag-5'>方法</b>

    基于YUV顏色空間的行人視頻檢測(cè)陰影去除算法的實(shí)現(xiàn)

    行人檢測(cè)與傳統(tǒng)的紅外檢測(cè)、GPS檢測(cè)、激光檢測(cè)方法相比,具有不破壞路面、維護(hù)方便、實(shí)時(shí)性好、
    的頭像 發(fā)表于 07-29 08:06 ?2298次閱讀
    基于YUV顏色空間的<b class='flag-5'>行人</b>視頻<b class='flag-5'>檢測(cè)</b>陰影去除算法的實(shí)現(xiàn)

    如何使用級(jí)聯(lián)網(wǎng)絡(luò)進(jìn)行行人檢測(cè)方法說(shuō)明

    針對(duì)復(fù)雜環(huán)境下行人檢測(cè)不能同時(shí)滿足高召回率與高效率檢測(cè)的問(wèn)題,提出一種基于卷積神經(jīng)網(wǎng)絡(luò)(CNN)的行人
    發(fā)表于 04-12 17:30 ?6次下載
    如何使用級(jí)聯(lián)網(wǎng)絡(luò)進(jìn)行<b class='flag-5'>行人</b><b class='flag-5'>檢測(cè)</b>的<b class='flag-5'>方法</b>說(shuō)明

    一種新型的交通視頻背景建模方法

    針對(duì)城市道路交通視頻難以直接提取交通背景,導(dǎo)致前景目標(biāo)檢測(cè)不準(zhǔn)確的問(wèn)題,提岀了一種基于幀間差分和統(tǒng)計(jì)直方圖的交通視頻背景建模
    發(fā)表于 05-08 17:04 ?5次下載

    一種基于HOG+SVM的行人檢測(cè)算法

    在先進(jìn)駕駛輔助系統(tǒng)中, 基于視覺(jué)的行人檢測(cè)只能對(duì)攝像頭視野范圍內(nèi)的無(wú)遮擋行人進(jìn)行檢測(cè), 并且易受天氣的影響, 在極端天氣無(wú)法工作。
    的頭像 發(fā)表于 02-22 10:17 ?2649次閱讀