本文作者Pulkit Sharma分享了一篇有趣的項(xiàng)目,以《貓和老鼠》為例,計(jì)算任意視頻中湯姆貓和杰瑞鼠的出鏡時(shí)長。這一模型也可以用于其他電影,輕松統(tǒng)計(jì)各演員的上鏡時(shí)間。
簡介
當(dāng)我開始接觸深度學(xué)習(xí)時(shí),學(xué)到的第一件事就是圖像分類。這個(gè)話題非常有趣,包括我在內(nèi)的很多人都沉浸在它的魅力之中。但是在我處理圖像分類時(shí)總會思考,如果我能將學(xué)到的東西遷移到視頻上就好了。
是否有一種模型能在特定時(shí)間內(nèi)自動識別視頻中的某個(gè)人物呢?結(jié)果證明的確可以做到,下面就將我的方法分享給你們!
影視明星的出鏡時(shí)間是非常重要的,直接影響他們的片酬。舉個(gè)例子,在《蜘蛛俠:英雄歸來》中,小羅伯特唐尼僅僅出鏡15分鐘就有高達(dá)1000萬美元的片酬。
如果我能計(jì)算任意影片中所有演員的出鏡時(shí)間,那就太棒了!在這篇文章中,我將幫你理解如何在視頻數(shù)據(jù)中使用深度學(xué)習(xí)。我們就用《貓和老鼠》作為例子,計(jì)算任意視頻中,湯姆和杰瑞的出現(xiàn)時(shí)間。
目錄
讀取視頻并提取幀
如何用Python處理視頻文件
計(jì)算出鏡時(shí)間——一種簡單的解決方案
我的收獲
讀取視頻并提取幀
如上面的動圖所示,,每一頁紙上都有不同的畫面,隨著我們翻動書頁,可以看到一只跳舞的鯊魚,而且翻動的速度越快,效果越好。這也可以看作一種視頻,換句話說,這種視覺效果是不同圖像以特定順序排列在一起產(chǎn)生的。
同樣的,視頻也是由一系列圖片組成的,這些圖片稱為“幀”,可以通過組合得到原始視頻。所以與視頻數(shù)據(jù)有關(guān)的問題和圖像分類或者目標(biāo)檢測問題并沒有什么不同。只是從視頻中提取幀需要多一個(gè)步驟。
我們這次的目的試計(jì)算湯姆和杰瑞在視頻中各自的出鏡時(shí)間,首先讓我們確定一下文中要做的步驟:
導(dǎo)入并讀取視頻,從中提取幀,將它們保存為圖片
標(biāo)記一些圖片用于模型的訓(xùn)練(這一步我已經(jīng)做好了)
在訓(xùn)練數(shù)據(jù)上搭建自己的模型
對剩余圖片進(jìn)行預(yù)測
計(jì)算湯姆和杰瑞各自的出鏡時(shí)間
跟著以下步驟學(xué)習(xí),將會幫助你解決很多深度學(xué)習(xí)相關(guān)的問題。
如何用Python處理視頻文件
首先要下載所有必需的庫:
NumPy
Pandas
Matplotlib
Keras
Skimage
OpenCV
第一步:讀取視頻并從中提取幀,將其保存為圖像
現(xiàn)在我們要下載視頻,并將它轉(zhuǎn)換成幀的形式。首先我們可以用VideoCapture( )函數(shù)從給定目錄中提取視頻,然后從視頻中提取幀,用imwrite( )函數(shù)將它們保存為圖像。
視頻下載地址:drive.google.com/file/d/1_DcwBhYo15j7AU-v2gN61qGGd1ZablGK/view
這個(gè)過程完成后,屏幕上會出現(xiàn)“Done!”的字樣。下面我們試著對圖像(幀)進(jìn)行可視化,首先用matplotlib中的imread( )函數(shù)讀取圖像,然后用imshow( )函數(shù)顯示圖像。
這就是視頻中的第一幀。我們從每秒中提取一幀,由于視頻時(shí)長為4:58(共298秒),我們現(xiàn)在一共有298張照片。
我們的任務(wù)時(shí)確定哪張照片上有湯姆,哪張有杰瑞。如果我們提取出的圖像能和常見的ImageNet數(shù)據(jù)集中的圖片有很大的相似性,那么這個(gè)問題就能輕而易舉地解決了。但是這樣的樂趣在哪里?
我們的是動畫片,所以要讓任何預(yù)訓(xùn)練模型在給定的視頻中定位湯姆和杰瑞還是有難度的。
第二步:標(biāo)記圖片訓(xùn)練模型
要實(shí)現(xiàn)標(biāo)記圖片,一種可能的方案是手動貼標(biāo)簽。一旦模型學(xué)會了特定模式,我們就能用它在之前沒見過的圖像上作出預(yù)測。
要記住的一點(diǎn)是,有些幀里可能沒有湯姆和杰瑞的鏡頭,所以我們要將其看成是多種類的分類問題:
0:沒有湯姆和杰瑞的鏡頭
1:杰瑞
2:湯姆
我已經(jīng)給所有圖片打上了標(biāo)簽,所以直接在mapping.csv文件中下載即可。
映射文件包含兩部分:
image_ID:包含每張照片的名稱
Class.Image_ID:含有每張圖對應(yīng)的種類
下一步是讀取圖片信息,即他們的Image_ID部分:
現(xiàn)在我們就有了圖片,記住,我們要用兩部分訓(xùn)練模型:
訓(xùn)練圖片
對應(yīng)的種類
由于這里有三種不同情況,我們將用keras.utils中的to_cateforical( )函數(shù)對他們進(jìn)行獨(dú)熱編碼。
圖片再輸入到VGG16訓(xùn)練前,尺寸需變?yōu)?24×224×3,所以我們的圖片在輸入前要重設(shè)尺寸。我們要用到skimage.transform中的resize( )函數(shù)。
尺寸調(diào)整好后,我們還要對每個(gè)模型的需求進(jìn)行預(yù)處理,否則模型就不會表現(xiàn)得很好。利用keras.applications.vgg16中的preprocess_input( )函數(shù)來完成這一步驟。
我們還需要一個(gè)驗(yàn)證集來檢查模型在陌生圖片上的性能,這里就需要用到sklearn.modelselection模塊中的traintest_split( )函數(shù)來隨機(jī)將圖片分成訓(xùn)練集和驗(yàn)證集。
第三步:搭建模型
下一步就是搭建自己的模型。我們會用VGG16預(yù)訓(xùn)練模型來完成這一任務(wù)。首先導(dǎo)入所需的庫:
下載VGG16與訓(xùn)練模型,并將其保存為base_model:
用該模型對X_train和X_valid進(jìn)行預(yù)測,得到特征,再用特征重新訓(xùn)練模型。
Xtrain和Xvalid的尺寸分別為(208,7,7,512)和(90,7,7,512)。為了輸入到神經(jīng)網(wǎng)絡(luò),我們必須把它重新修改成1—D尺寸。
現(xiàn)在對圖像進(jìn)行預(yù)處理,去中心化,讓模型收斂得更快。
最后,我們將搭建自己的模型,這一步可以分為三小步:
搭建模型
編譯模型
訓(xùn)練模型
用summary( )函數(shù)檢查模型的匯總信息:
模型中有一隱藏層,有1024個(gè)神經(jīng)元,輸出層有3個(gè)神經(jīng)元(因?yàn)槲覀冇?種不同的預(yù)測情況)?,F(xiàn)在我們開始編譯模型。
最后一步,我們要訓(xùn)練模型,并且用驗(yàn)證集檢測它在陌生圖像上的表現(xiàn):
可以看到在驗(yàn)證集上的表現(xiàn)很不錯(cuò),精確度達(dá)到85%。這就是我們?nèi)绾卧谝曨l數(shù)據(jù)上訓(xùn)練模型,再對每一幀作出預(yù)測的步驟。
下面,我將計(jì)算湯姆和杰瑞在新視頻中的出鏡時(shí)間。
計(jì)算出鏡時(shí)間——一種簡單的解決方案
首先下載我們要用到的視頻。一旦完成,可以從中提取幀:
從新視頻中提取幀之后,我們就要下載test.csv文件,它包含每個(gè)提取出的幀的名字:
接著,我們將導(dǎo)入用于測試的圖片,然后針對之前提到的預(yù)訓(xùn)練模型重新修改尺寸:
接著,我們還要對這些圖片進(jìn)行調(diào)整,就像之前處理訓(xùn)練圖片那樣:
由于我們之前訓(xùn)練了模型,就可以用它做出預(yù)測了。
第四步:對剩余圖像進(jìn)行預(yù)測
第五步:計(jì)算湯姆和杰瑞的出鏡時(shí)間
剛剛我們規(guī)定了1代表杰瑞,2代表湯姆,這樣就可以用上述的預(yù)測來計(jì)算兩個(gè)角色的出鏡時(shí)長了:
結(jié)果如上。
我的收獲
為了完成這一項(xiàng)目,我遇到了很多問題。下面是我遇到的一些挑戰(zhàn)及做出的應(yīng)對對策。
首先,我嘗試在沒有刪除最頂層的情況下使用預(yù)訓(xùn)練模型,結(jié)果并不理想。原因可能是由于我們的模型之前沒有在動畫片上接受訓(xùn)練。為了解決這個(gè)問題,我重新用圖片訓(xùn)練模型,結(jié)果好了很多。
但是盡管用帶有標(biāo)記的圖片訓(xùn)練,精確度仍然不理想。模型在訓(xùn)練圖像上表現(xiàn)得并不好。所以,我試著增加圖層數(shù)量。這種做法結(jié)果不錯(cuò),但訓(xùn)練和驗(yàn)證精度之間并不對應(yīng)。模型出現(xiàn)了過度擬合,它在陌生數(shù)據(jù)上表現(xiàn)得也不好。所以我在密集層之后增加了Dropout層,這樣就解決了。
我注意到,湯姆的出鏡時(shí)間更長,所以模型得出的很多結(jié)論都是湯姆。為了讓模型平衡預(yù)測,我用了sklearn.utils.classweight模塊中的computeclass_weight( )函數(shù)。它在數(shù)值計(jì)數(shù)較低的類別中分配了更高的權(quán)重,在較高的數(shù)值計(jì)數(shù)中分配較低權(quán)重。
另外,我還用Model Checkpoint保存了最佳模型。
最終,我們在驗(yàn)證數(shù)據(jù)上達(dá)到了88%左右的結(jié)果,在測試數(shù)據(jù)上達(dá)到了64%的精確度結(jié)果。
-
視頻
+關(guān)注
關(guān)注
6文章
1930瀏覽量
72778 -
圖像分類
+關(guān)注
關(guān)注
0文章
89瀏覽量
11899 -
python
+關(guān)注
關(guān)注
55文章
4774瀏覽量
84386
原文標(biāo)題:Python視頻深度學(xué)習(xí):計(jì)算任意影片中所有演員出鏡時(shí)間(代碼)
文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
評論