口罩佩戴檢測(cè)算法基于YOLOv5在圖像識(shí)別檢測(cè)領(lǐng)域的優(yōu)異性能,本文研究基于基于YOLOv5的口罩佩自動(dòng)戴檢測(cè)方法。首先從網(wǎng)絡(luò)和真實(shí)生活中中尋找并采集不同場(chǎng)景人群口罩佩戴的圖片約500張并自建數(shù)據(jù)集,口罩佩戴檢測(cè)算法利用YOLOv5模型框架,修改其相關(guān)配置文件和檢測(cè)參數(shù),并采用數(shù)據(jù)增強(qiáng)和Dropout技術(shù)防止過擬合。實(shí)驗(yàn)結(jié)果驗(yàn)證了YOLOv5模型人群口罩佩戴圖像識(shí)別任務(wù)上的優(yōu)越性能,測(cè)試集上的YOLOv5s模型識(shí)別準(zhǔn)確率高達(dá)85.45%。
關(guān)鍵詞 圖像識(shí)別;口罩佩戴檢測(cè);YOLOv5;特征學(xué)習(xí);
引言
目前口罩佩戴檢測(cè)存在著因周圍復(fù)雜環(huán)境影響從而出現(xiàn)效率低,導(dǎo)致漏檢等情況。為了達(dá)到更好的檢測(cè)效果,本文主要是利用YOLOv5網(wǎng)絡(luò)模型在輕量化口罩佩戴檢測(cè)算法的研究。
1 數(shù)據(jù)預(yù)處理
1.1 數(shù)據(jù)采集
人群口罩佩戴圖像是2022年5月23日,由本組三名同學(xué)分別在網(wǎng)絡(luò)上以及在真實(shí)場(chǎng)景中用手機(jī)拍攝所得,共計(jì)1027張圖片。不同采集設(shè)備獲取的原始圖像分辨率不同,在數(shù)據(jù)建模時(shí)統(tǒng)一縮放至324×324大小的規(guī)格
為了提高卷積神經(jīng)網(wǎng)絡(luò)模型的泛化能力,對(duì)每幅口罩佩戴圖像通過旋轉(zhuǎn)、平移、扭曲、縮放、翻轉(zhuǎn)等傳統(tǒng)數(shù)字圖像處理方法進(jìn)行隨機(jī)變換以擴(kuò)充樣本個(gè)數(shù)。某幅口罩圖像進(jìn)行數(shù)據(jù)增強(qiáng)后的部分樣本如圖2所示,通過隨機(jī)變換生成的口罩佩戴圖像大量擴(kuò)充了數(shù)據(jù)集,使樣本分布更廣泛。
本文構(gòu)建的識(shí)別模型主要是YOLOv5s,其具有小型輕量,快速的特點(diǎn),適合于快速準(zhǔn)確的識(shí)別任務(wù)。模型如圖3-1。
模型輸入圖像設(shè)定為324×324 的三通道彩色圖像,殘差結(jié)構(gòu)中依次包含瓶頸殘差模塊、常規(guī)殘差模塊×2、瓶頸殘差模塊、常規(guī)殘差模塊×3、瓶頸殘差模塊、常規(guī)殘差模塊×22、瓶頸殘差模塊、常規(guī)殘差模塊×2。其內(nèi)部卷積核設(shè)置略有調(diào)整。最后,在網(wǎng)絡(luò)全連接層之后采用Softmax分類器輸出每個(gè)類別的分類概率。
1. import random 2. import string 3. 4. f1 = open('1.txt', 'x') 5. for x in range(10000): 6. string0 = str(''.join(random.sample( 7. ['z', 'n', 'm', 'l', 'k', 'j', 'i', 'h', 'g', 'f', 'e', 'd', 'c', 'b', 'a'], 4))) 8. f1.write(string0) 9. if x % random.randint(1, 50) == 0: 10. f1.write(' ') 11. continue 12. if x != 9999: 13. f1.write('\n') 14. f1.close()
-
檢測(cè)
+關(guān)注
關(guān)注
5文章
4413瀏覽量
91305 -
人工智能
+關(guān)注
關(guān)注
1789文章
46652瀏覽量
237087 -
卷積神經(jīng)網(wǎng)絡(luò)
+關(guān)注
關(guān)注
4文章
359瀏覽量
11831
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論