0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

使用Google Colab快速體驗(yàn)ScaledYOLOv4

jf_cVC5iyAO ? 來(lái)源:易心Microbit編程 ? 2023-04-14 10:06 ? 次閱讀

「對(duì)象偵測(cè)」一直是計(jì)算機(jī)視覺(jué)的重點(diǎn)項(xiàng)目,已發(fā)展了二十多年,早期利用各種特征提取和比對(duì)來(lái)找出人們對(duì)影像中有興趣的像素集合(對(duì)象),如VJ, HOG等。近幾年來(lái),大家則把重點(diǎn)放在了「深度學(xué)習(xí)」的模型上,從剛開始的二階段偵測(cè)器(Two-stage Detector),如RCNN, SPPNet, Fast RCNN, Faster RCNN等,到目前最流行的一階段偵測(cè)器(One-stageDetector),如SSD, RetinaNet, EfficientDet, YOLO等,其中又以YOLO(You OnlyLook Once)系列發(fā)展的最好,一路發(fā)展出YOLOv2, YOLOv3, YOLOv4, YOLOv5, 去年更有ScaledYOLOv4,YOLOX, YOLOR等技術(shù)推出,讓大家有更快推論速度、更高推論精度、更彈性模型架構(gòu),讓同一張影像中大小對(duì)象都能順利被檢出。

「ScaledYOLOv4」這個(gè)模型可依輸入影像大小選擇不同尺度架構(gòu),以往YOLOv4只分標(biāo)準(zhǔn)和tiny兩種,而這里分為tiny, csp, large,而large又分p5, p6, p7,完整的架構(gòu)可參考Fig. 1 & 2。至于模型的運(yùn)作原理[7]寫得頗清楚,這里就不多作說(shuō)明。從Fig. 1就可明顯看出其效能大幅優(yōu)于YOLOv3, YOLOv4及EfficientDet。

05a7fb2a-d9d2-11ed-bfe3-dac502259ad0.jpg

Fig. 1 ScaledYOLOv4和其它模型在COCO數(shù)據(jù)集推論效能比較表。

05cef1ee-d9d2-11ed-bfe3-dac502259ad0.jpg

Fig. 2 ScaledYOLOv4模型架構(gòu)(csp, p5,p6, p7)。

為了讓大家快速上手,這里參考了王建堯博士釋出的PyTorch源碼,

https://github.com/WongKinYiu/ScaledYOLOv4

另外提供了一個(gè)完整的Google Colab范例,說(shuō)明如何建立環(huán)境及運(yùn)行COCO數(shù)據(jù)集預(yù)訓(xùn)練參數(shù)。而訓(xùn)練及推論自定義數(shù)據(jù)集就留待下回分解。完整范例請(qǐng)參考下列網(wǎng)址。

https://github.com/OmniXRI/Colab_ScaledYOLOv4

由于csp和large(p5)在模型定義的格式略有不同,前者為cfg,后者是采yaml,權(quán)重值亦有不同,前者為weight,后者為pt,所以這里有兩個(gè)范例程序,分別對(duì)應(yīng)csp和large兩種格式,而large又以p5為例,若要執(zhí)行p6, p7則自行修改內(nèi)容即可。

scaled-yolov4-csp_coco_test.ipynb

scaled-yolov4-large_coco_test.ipynb

整個(gè)程序主要有八個(gè)動(dòng)作,如下說(shuō)明,這里以csp為例。

1. 檢查GPU及CUDA版本

由于后面的程序需要用要Nvidia CUDA,所以要先檢查。執(zhí)行后若顯示failed,則至左上角選單中「編輯」─「筆記本設(shè)定」下「硬件加速器」選擇「GPU」,再重新運(yùn)行一次即可。至于配置到那一種Nvidia GPU則無(wú)妨。

!nvidia-smi

2. 檢查系統(tǒng)默認(rèn)安裝套件及版本

建議版本如下所示,若大于下列版本而造成無(wú)法順利運(yùn)作則請(qǐng)自行降版后再執(zhí)行后續(xù)工作。

Python3.7.12

opencv-contrib-python4.1.2.30

opencv-python4.1.2.30

tensorboard2.7.0

torch1.10.0+cu111

torchvision0.11.1+cu111

!python--version

!piplist

3. 安裝 mish-cuda

這是ScaledYOLOv4必要組件,一定要安裝,否則無(wú)法順利運(yùn)行,預(yù)設(shè)安裝版本 0.0.3。

本范例無(wú)法于無(wú)Nvidia CUDA環(huán)境下運(yùn)行。

!pipinstall git+https://github.com/JunnYu/mish-cuda.git

!piplist

4. 下載ScaledYOLOv4

依需求下載不同版本(csp, large)的PyTorch ScaledYOLOv4到 /content/ScaledYOLOv4 路徑下。請(qǐng)注意這里 -byolov4-csp 為指定下載csp版本分支,若無(wú)-b參數(shù)則為large(default版本)。

!gitclone -b yolov4-csp https://github.com/WongKinYiu/ScaledYOLOv4

%cdScaledYOLOv4

!ls

5. 下載COCO預(yù)訓(xùn)練權(quán)重檔

在 /content/ScaledYOLOv4下新增 /weights 路徑,將Google共享文件COCO預(yù)訓(xùn)練權(quán)重值檔案下載到該路徑下。主要差別在--ld后面的路徑,可自行更換。

yolov4-csp.weights: 1TdKvDQb2QpP4EhOIyks8kgT8dgI1iOWT

yolov4-p5.pt: 1aXZZE999sHMP1gev60XhNChtHPRMH3Fz

yolov4-p6.pt: 1aB7May8oPYzBqbgwYSZHuATPXyxh9xnf

yolov4-p7.pt: 18fGlzgEJTkUEiBG4hW00pyedJKNnYLP3

!mkdirweights

%cdweights

!gdown--id 1TdKvDQb2QpP4EhOIyks8kgT8dgI1iOWT

!ls

6. 下載測(cè)試影像

在 /data 路徑下建立 /images 用于存放測(cè)試影像

隨便從網(wǎng)絡(luò)上下載一張影像并更名為 test01.jpg

%cd/content/ScaledYOLOv4/data

!mkdirimages

%cdimages

!wgethttps://raw.githubusercontent.com/WongKinYiu/PyTorch_YOLOv4/master/data/samples/bus.jpg

!mvbus.jpg test01.jpg

!ls

7. 進(jìn)行推論

根據(jù)下列參數(shù)執(zhí)行推論程序 detect.py

影像大小 640x640, (預(yù)設(shè)csp為640, p5為896, p6為1280, p7為1536)

置信度 0.3, (可自行調(diào)整)

推論裝置(GPU) 0, (第一組GPU)

配置文件, (csp為yolov4-csp.cfg, large為yolov4-p5.yaml)

模型權(quán)重文件, (csp為yolov4-csp.weights,large為yolov4-p5.pt)

來(lái)源影像(可指定單張影像、單個(gè)影片、檔案夾等)

%cd/content/ScaledYOLOv4/

!pythondetect.py

--img640

--conf0.3

--device0

--cfgmodels/yolov4-csp.cfg

--weightsweights/yolov4-csp.weights

--sourcedata/images/test01.jpg

8. 顯示推論結(jié)果

推論完成會(huì)將結(jié)果置于 /inference/output 路徑下

使用OpenCV函數(shù)顯示結(jié)果影像

importcv2

fromgoogle.colab.patches import cv2_imshow

img1 =cv2.imread('data/images/test01.jpg')

cv2_imshow(img1)

img2 =cv2.imread('inference/output/test01.jpg')

cv2_imshow(img2)

06bd5708-d9d2-11ed-bfe3-dac502259ad0.jpg

Fig. 3ScaledYOLOv4運(yùn)行結(jié)果,左:csp,右:large(p5)。

從Fig. 3上可以看出,連右上角的遮擋的很嚴(yán)重的腳踏車都能偵測(cè)到。而左側(cè)穿白外套男人領(lǐng)口的橘色部位在large(p5)被辨識(shí)為領(lǐng)帶,人眼不仔細(xì)看還真的會(huì)誤判,更何況模型。整體來(lái)說(shuō)表現(xiàn)不錯(cuò)。

小結(jié)

這篇文章先幫大家暖暖身,如果你想辨識(shí)的內(nèi)容在COCO數(shù)據(jù)集80類范圍內(nèi)的話,那就直接使用就可以,若需要自己訓(xùn)練自定義的數(shù)據(jù)集,就靜待下回分解啰!

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • Google
    +關(guān)注

    關(guān)注

    5

    文章

    1748

    瀏覽量

    57182
  • 計(jì)算機(jī)視覺(jué)

    關(guān)注

    8

    文章

    1685

    瀏覽量

    45811
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1197

    瀏覽量

    24535
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5422

    瀏覽量

    120588

原文標(biāo)題:使用Google Colab快速體驗(yàn)ScaledYOLOv4

文章出處:【微信號(hào):易心Microbit編程,微信公眾號(hào):易心Microbit編程】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    使用google-translate和wwe合并后無(wú)法使用google-tts怎么解決?

    我打算使用lyrat-mini做一個(gè)使用喚醒詞喚醒然后后續(xù)通過(guò)google-sr和google-tts進(jìn)行交流的聊天機(jī)器人,但是當(dāng)我合并了adf的例子中的wwe和google-translate之后
    發(fā)表于 06-28 06:05

    52.【GoLang】在Google Colab中運(yùn)行Go語(yǔ)言代碼程序 - Go Lang in Colab

    程序代碼
    充八萬(wàn)
    發(fā)布于 :2023年07月13日 10:47:28

    _53.【 Colab】搭建基于 Google Colab 的 HTTP 服務(wù)器

    網(wǎng)絡(luò)數(shù)據(jù)庫(kù)代碼Arduino
    充八萬(wàn)
    發(fā)布于 :2023年08月08日 23:27:43

    如何預(yù)防Google Toolbar監(jiān)控您的網(wǎng)絡(luò)行為

    Google tool***ar 相信不少朋友都有裝吧,使用起來(lái)的確很方便,特別像我這樣的搜索一族。   在方便的同時(shí)大家有沒(méi)有想過(guò)自己的一舉一動(dòng)都暴露在google的監(jiān)視下呢? 我測(cè)試了一下,瀏覽
    發(fā)表于 06-12 09:10

    【轉(zhuǎn)載】Google Glass應(yīng)用開發(fā)探索

    是在眼睛的右上角,只是在視線之內(nèi),而不 會(huì)遮擋視線。電池在一般情況下可以堅(jiān)持一天,但如果一直拍照或錄像的話,只能堅(jiān)持3~4個(gè)小時(shí)。Google已著手設(shè)計(jì)近視眼鏡的解決方案,不久將會(huì)發(fā)布 適合它的鏡框或者
    發(fā)表于 06-28 02:21

    google glog安裝和使用

    google glog 簡(jiǎn)單使用小結(jié)
    發(fā)表于 08-21 14:24

    淺析ADK Google fast pair功能

    Biu~哈嘍大家好,今天接著聊聊ADK的新功能。在ADK6.4的release中,有一個(gè)sink 新功能被正式release——Google Fast Pair Service谷歌快速配對(duì)服務(wù)(簡(jiǎn)稱
    發(fā)表于 09-20 09:05

    Google Colab現(xiàn)在提供免費(fèi)的T4 GPU

    當(dāng)然還有一個(gè)好處:不需要前期環(huán)境配置。相信很多人對(duì)前期環(huán)境配置過(guò)程中,遇到的各種奇奇怪怪問(wèn)題深有體會(huì):Anaconda套件該選擇哪個(gè)版本?路徑?jīng)]設(shè)置好導(dǎo)致Jupyter Notebook調(diào)不出來(lái)等等。而Google Colab直接配置好一個(gè)環(huán)境,即插即用。
    的頭像 發(fā)表于 04-26 09:18 ?6704次閱讀
    <b class='flag-5'>Google</b> <b class='flag-5'>Colab</b>現(xiàn)在提供免費(fèi)的T<b class='flag-5'>4</b> GPU

    Google“黑科技”,Pixel 4 或?qū)?shí)現(xiàn)指尖級(jí)的隔空操作

    Pixel 4 將會(huì)搭載 Google 研究了多年的 Project Soli 技術(shù)。
    的頭像 發(fā)表于 06-13 14:25 ?2571次閱讀

    Google推出了超級(jí)強(qiáng)大的在線編輯器Colaboratory

    colab作為一款在線編輯器,除了能讓大家方便協(xié)作使用外,colab還有另外一個(gè)身份:幫助傳播機(jī)器學(xué)習(xí)培訓(xùn)和研究成果,所以Colab還關(guān)聯(lián)了一個(gè)非常優(yōu)秀的機(jī)器學(xué)習(xí)學(xué)習(xí)平臺(tái)!
    的頭像 發(fā)表于 07-18 15:45 ?3538次閱讀

    怎樣將Google日歷附加到Google網(wǎng)站

    Google日歷的優(yōu)點(diǎn)之一是,將其添加到網(wǎng)站后,添加后事件將自動(dòng)更新在Google日歷中。這有助于輕松更新和調(diào)整事件以及添加事件的快速簡(jiǎn)便方法。
    的頭像 發(fā)表于 11-25 14:42 ?1879次閱讀

    Google重磅發(fā)布開源庫(kù)TFQ,快速建立量子機(jī)器學(xué)習(xí)模型

    近日,Google 與滑鐵盧大學(xué)、大眾汽車等聯(lián)合發(fā)布 TensorFlow Quantum(TFQ),一個(gè)可快速建立量子機(jī)器學(xué)習(xí)模型原型的開源庫(kù)。
    的頭像 發(fā)表于 03-12 16:31 ?2669次閱讀
    <b class='flag-5'>Google</b>重磅發(fā)布開源庫(kù)TFQ,<b class='flag-5'>快速</b>建立量子機(jī)器學(xué)習(xí)模型

    如何在Colab中使用SQL

    如今,編碼測(cè)試在數(shù)據(jù)科學(xué)面試過(guò)程中幾乎是標(biāo)準(zhǔn)的。 作為一名數(shù)據(jù)科學(xué)招聘經(jīng)理,我發(fā)現(xiàn)一個(gè)20-30分鐘的現(xiàn)場(chǎng)編碼測(cè)試和一些準(zhǔn)備好的任務(wù)能夠有效地識(shí)別那些能夠勝任職位的候選人。 Google Colab
    的頭像 發(fā)表于 10-12 09:39 ?1810次閱讀
    如何在<b class='flag-5'>Colab</b>中使用SQL

    谷歌Colab硬剛Github Copilot,編程效率要翻天

    再加上Colab的之前提供的全云端運(yùn)行的Jupyter筆記本環(huán)境,開發(fā)者可以方便使用Keras,TensorFlow,PyTorch,OpenCV等框架在谷歌提供的GPU資源上進(jìn)行深度學(xué)習(xí)應(yīng)用的開發(fā)。
    的頭像 發(fā)表于 05-19 10:20 ?832次閱讀

    PyTorch教程23.4之使用Google Colab

    電子發(fā)燒友網(wǎng)站提供《PyTorch教程23.4之使用Google Colab.pdf》資料免費(fèi)下載
    發(fā)表于 06-06 09:16 ?0次下載
    PyTorch教程23.4之使用<b class='flag-5'>Google</b> <b class='flag-5'>Colab</b>