0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

以《貓和老鼠》為例,計(jì)算任意視頻中湯姆貓和杰瑞鼠的出鏡時(shí)長

DPVg_AI_era ? 來源:未知 ? 作者:李倩 ? 2018-10-04 08:49 ? 次閱讀

本文作者Pulkit Sharma分享了一篇有趣的項(xiàng)目,以《貓和老鼠》為例,計(jì)算任意視頻中湯姆貓和杰瑞鼠的出鏡時(shí)長。這一模型也可以用于其他電影,輕松統(tǒng)計(jì)各演員的上鏡時(shí)間。

簡介

當(dāng)我開始接觸深度學(xué)習(xí)時(shí),學(xué)到的第一件事就是圖像分類。這個(gè)話題非常有趣,包括我在內(nèi)的很多人都沉浸在它的魅力之中。但是在我處理圖像分類時(shí)總會思考,如果我能將學(xué)到的東西遷移到視頻上就好了。

是否有一種模型能在特定時(shí)間內(nèi)自動識別視頻中的某個(gè)人物呢?結(jié)果證明的確可以做到,下面就將我的方法分享給你們!

影視明星的出鏡時(shí)間是非常重要的,直接影響他們的片酬。舉個(gè)例子,在《蜘蛛俠:英雄歸來》中,小羅伯特唐尼僅僅出鏡15分鐘就有高達(dá)1000萬美元的片酬。

如果我能計(jì)算任意影片中所有演員的出鏡時(shí)間,那就太棒了!在這篇文章中,我將幫你理解如何在視頻數(shù)據(jù)中使用深度學(xué)習(xí)。我們就用《貓和老鼠》作為例子,計(jì)算任意視頻中,湯姆和杰瑞的出現(xiàn)時(shí)間。

目錄

讀取視頻并提取幀

如何用Python處理視頻文件

計(jì)算出鏡時(shí)間——一種簡單的解決方案

我的收獲

讀取視頻并提取幀

如上面的動圖所示,,每一頁紙上都有不同的畫面,隨著我們翻動書頁,可以看到一只跳舞的鯊魚,而且翻動的速度越快,效果越好。這也可以看作一種視頻,換句話說,這種視覺效果是不同圖像以特定順序排列在一起產(chǎn)生的。

同樣的,視頻也是由一系列圖片組成的,這些圖片稱為“幀”,可以通過組合得到原始視頻。所以與視頻數(shù)據(jù)有關(guān)的問題和圖像分類或者目標(biāo)檢測問題并沒有什么不同。只是從視頻中提取幀需要多一個(gè)步驟。

我們這次的目的試計(jì)算湯姆和杰瑞在視頻中各自的出鏡時(shí)間,首先讓我們確定一下文中要做的步驟:

導(dǎo)入并讀取視頻,從中提取幀,將它們保存為圖片

標(biāo)記一些圖片用于模型的訓(xùn)練(這一步我已經(jīng)做好了)

在訓(xùn)練數(shù)據(jù)上搭建自己的模型

對剩余圖片進(jìn)行預(yù)測

計(jì)算湯姆和杰瑞各自的出鏡時(shí)間

跟著以下步驟學(xué)習(xí),將會幫助你解決很多深度學(xué)習(xí)相關(guān)的問題。

如何用Python處理視頻文件

首先要下載所有必需的庫:

NumPy

Pandas

Matplotlib

Keras

Skimage

OpenCV

第一步:讀取視頻并從中提取幀,將其保存為圖像

現(xiàn)在我們要下載視頻,并將它轉(zhuǎn)換成幀的形式。首先我們可以用VideoCapture( )函數(shù)從給定目錄中提取視頻,然后從視頻中提取幀,用imwrite( )函數(shù)將它們保存為圖像。

視頻下載地址:drive.google.com/file/d/1_DcwBhYo15j7AU-v2gN61qGGd1ZablGK/view

這個(gè)過程完成后,屏幕上會出現(xiàn)“Done!”的字樣。下面我們試著對圖像(幀)進(jìn)行可視化,首先用matplotlib中的imread( )函數(shù)讀取圖像,然后用imshow( )函數(shù)顯示圖像。

這就是視頻中的第一幀。我們從每秒中提取一幀,由于視頻時(shí)長為4:58(共298秒),我們現(xiàn)在一共有298張照片。

我們的任務(wù)時(shí)確定哪張照片上有湯姆,哪張有杰瑞。如果我們提取出的圖像能和常見的ImageNet數(shù)據(jù)集中的圖片有很大的相似性,那么這個(gè)問題就能輕而易舉地解決了。但是這樣的樂趣在哪里?

我們的是動畫片,所以要讓任何預(yù)訓(xùn)練模型在給定的視頻中定位湯姆和杰瑞還是有難度的。

第二步:標(biāo)記圖片訓(xùn)練模型

要實(shí)現(xiàn)標(biāo)記圖片,一種可能的方案是手動貼標(biāo)簽。一旦模型學(xué)會了特定模式,我們就能用它在之前沒見過的圖像上作出預(yù)測。

要記住的一點(diǎn)是,有些幀里可能沒有湯姆和杰瑞的鏡頭,所以我們要將其看成是多種類的分類問題:

0:沒有湯姆和杰瑞的鏡頭

1:杰瑞

2:湯姆

我已經(jīng)給所有圖片打上了標(biāo)簽,所以直接在mapping.csv文件中下載即可。

映射文件包含兩部分:

image_ID:包含每張照片的名稱

Class.Image_ID:含有每張圖對應(yīng)的種類

下一步是讀取圖片信息,即他們的Image_ID部分:

現(xiàn)在我們就有了圖片,記住,我們要用兩部分訓(xùn)練模型:

訓(xùn)練圖片

對應(yīng)的種類

由于這里有三種不同情況,我們將用keras.utils中的to_cateforical( )函數(shù)對他們進(jìn)行獨(dú)熱編碼。

圖片再輸入到VGG16訓(xùn)練前,尺寸需變?yōu)?24×224×3,所以我們的圖片在輸入前要重設(shè)尺寸。我們要用到skimage.transform中的resize( )函數(shù)。

尺寸調(diào)整好后,我們還要對每個(gè)模型的需求進(jìn)行預(yù)處理,否則模型就不會表現(xiàn)得很好。利用keras.applications.vgg16中的preprocess_input( )函數(shù)來完成這一步驟。

我們還需要一個(gè)驗(yàn)證集來檢查模型在陌生圖片上的性能,這里就需要用到sklearn.modelselection模塊中的traintest_split( )函數(shù)來隨機(jī)將圖片分成訓(xùn)練集和驗(yàn)證集。

第三步:搭建模型

下一步就是搭建自己的模型。我們會用VGG16預(yù)訓(xùn)練模型來完成這一任務(wù)。首先導(dǎo)入所需的庫:

下載VGG16與訓(xùn)練模型,并將其保存為base_model:

用該模型對X_train和X_valid進(jìn)行預(yù)測,得到特征,再用特征重新訓(xùn)練模型。

Xtrain和Xvalid的尺寸分別為(208,7,7,512)和(90,7,7,512)。為了輸入到神經(jīng)網(wǎng)絡(luò),我們必須把它重新修改成1—D尺寸。

現(xiàn)在對圖像進(jìn)行預(yù)處理,去中心化,讓模型收斂得更快。

最后,我們將搭建自己的模型,這一步可以分為三小步:

搭建模型

編譯模型

訓(xùn)練模型

用summary( )函數(shù)檢查模型的匯總信息:

模型中有一隱藏層,有1024個(gè)神經(jīng)元,輸出層有3個(gè)神經(jīng)元(因?yàn)槲覀冇?種不同的預(yù)測情況)?,F(xiàn)在我們開始編譯模型。

最后一步,我們要訓(xùn)練模型,并且用驗(yàn)證集檢測它在陌生圖像上的表現(xiàn):

可以看到在驗(yàn)證集上的表現(xiàn)很不錯(cuò),精確度達(dá)到85%。這就是我們?nèi)绾卧谝曨l數(shù)據(jù)上訓(xùn)練模型,再對每一幀作出預(yù)測的步驟。

下面,我將計(jì)算湯姆和杰瑞在新視頻中的出鏡時(shí)間。

計(jì)算出鏡時(shí)間——一種簡單的解決方案

首先下載我們要用到的視頻。一旦完成,可以從中提取幀:

從新視頻中提取幀之后,我們就要下載test.csv文件,它包含每個(gè)提取出的幀的名字:

接著,我們將導(dǎo)入用于測試的圖片,然后針對之前提到的預(yù)訓(xùn)練模型重新修改尺寸:

接著,我們還要對這些圖片進(jìn)行調(diào)整,就像之前處理訓(xùn)練圖片那樣:

由于我們之前訓(xùn)練了模型,就可以用它做出預(yù)測了。

第四步:對剩余圖像進(jìn)行預(yù)測

第五步:計(jì)算湯姆和杰瑞的出鏡時(shí)間

剛剛我們規(guī)定了1代表杰瑞,2代表湯姆,這樣就可以用上述的預(yù)測來計(jì)算兩個(gè)角色的出鏡時(shí)長了:

結(jié)果如上。

我的收獲

為了完成這一項(xiàng)目,我遇到了很多問題。下面是我遇到的一些挑戰(zhàn)及做出的應(yīng)對對策。

首先,我嘗試在沒有刪除最頂層的情況下使用預(yù)訓(xùn)練模型,結(jié)果并不理想。原因可能是由于我們的模型之前沒有在動畫片上接受訓(xùn)練。為了解決這個(gè)問題,我重新用圖片訓(xùn)練模型,結(jié)果好了很多。

但是盡管用帶有標(biāo)記的圖片訓(xùn)練,精確度仍然不理想。模型在訓(xùn)練圖像上表現(xiàn)得并不好。所以,我試著增加圖層數(shù)量。這種做法結(jié)果不錯(cuò),但訓(xùn)練和驗(yàn)證精度之間并不對應(yīng)。模型出現(xiàn)了過度擬合,它在陌生數(shù)據(jù)上表現(xiàn)得也不好。所以我在密集層之后增加了Dropout層,這樣就解決了。

我注意到,湯姆的出鏡時(shí)間更長,所以模型得出的很多結(jié)論都是湯姆。為了讓模型平衡預(yù)測,我用了sklearn.utils.classweight模塊中的computeclass_weight( )函數(shù)。它在數(shù)值計(jì)數(shù)較低的類別中分配了更高的權(quán)重,在較高的數(shù)值計(jì)數(shù)中分配較低權(quán)重。

另外,我還用Model Checkpoint保存了最佳模型。

最終,我們在驗(yàn)證數(shù)據(jù)上達(dá)到了88%左右的結(jié)果,在測試數(shù)據(jù)上達(dá)到了64%的精確度結(jié)果。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 視頻
    +關(guān)注

    關(guān)注

    6

    文章

    1930

    瀏覽量

    72778
  • 圖像分類
    +關(guān)注

    關(guān)注

    0

    文章

    89

    瀏覽量

    11899
  • python
    +關(guān)注

    關(guān)注

    55

    文章

    4774

    瀏覽量

    84386

原文標(biāo)題:Python視頻深度學(xué)習(xí):計(jì)算任意影片中所有演員出鏡時(shí)間(代碼)

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    電子仿聲驅(qū)器電路設(shè)計(jì)

    老鼠的天敵,利用電子裝置來模擬貓叫聲驅(qū)是一種有效的方法。由于是電子裝置,貓叫聲可大可小,可快可慢,間隔時(shí)間可長可短,且電路結(jié)構(gòu)簡單、成本低廉,適合電子愛好者自制用于家庭。
    發(fā)表于 10-08 13:47 ?2642次閱讀
    電子仿聲驅(qū)<b class='flag-5'>鼠</b>器電路設(shè)計(jì)

    自做會說話的湯姆

    我想自己制作一個(gè)會說話的湯姆送人,不知道怎么做,各位高手可不可以幫幫小弟,不勝感激!??!有聲音錄入輸出功能就行。我的郵箱wanganangelsnow@126.com
    發(fā)表于 03-30 17:12

    基于LabVIEW的會說話的湯姆程序

    點(diǎn)擊學(xué)習(xí)>>《龍哥手把手教你學(xué)LabVIEW視覺設(shè)計(jì)》視頻教程今晚無聊,就開起LabVIEW來鼓搗,就這么做出個(gè)會說話的湯姆來了…不對,應(yīng)該是會說話的小圓點(diǎn),沒有湯姆
    發(fā)表于 06-26 22:58

    我的畢設(shè)是湯姆,大家可以給我一下這方面的建議嗎

    我的畢設(shè)是湯姆,大家可以給我一下這方面的建議嗎求指導(dǎo)程序
    發(fā)表于 01-10 15:52

    貼片天線設(shè)計(jì)的HFSS在天線設(shè)計(jì)的應(yīng)用介紹

    /近場輻射方向圖、天線增益、軸比、計(jì)劃比、半功率波瓣寬度、內(nèi)部電磁場場型、天線阻抗、電壓駐波比、S參數(shù)等等。下面貼片天線設(shè)計(jì)介紹一下HFSS在天線設(shè)計(jì)的應(yīng)用。
    發(fā)表于 06-27 07:05

    函數(shù)/任意波形發(fā)生器的帶限噪聲信號產(chǎn)生方法介紹

    /任意波形發(fā)生器利用其配套的任意波形編輯軟件就可以直接實(shí)現(xiàn)滿足不同需求的各種帶限噪聲信號的輸出,真實(shí)模擬通信系統(tǒng)內(nèi)部和實(shí)際信道的干擾環(huán)境,極大地方便了對系統(tǒng)進(jìn)行有效、可靠的分析。  本文著重
    發(fā)表于 07-22 07:12

    什么原因視頻顯微的應(yīng)用越來越廣泛,華顯光學(xué)您做解答!

    具體體現(xiàn)在哪里? 既然視頻顯微又被稱為數(shù)碼顯微,所以其突出的特點(diǎn)就是可以將圖像數(shù)模轉(zhuǎn)換的方式呈現(xiàn)在計(jì)算機(jī)等終端上,這樣的好處不僅僅是
    發(fā)表于 02-12 17:13

    仿貓叫電子驅(qū)器電路資料推薦

    本電路我們暫且稱其為“仿聲原理電子驅(qū)器”,它不是我們常見的利用高強(qiáng)度超聲波驅(qū)趕老鼠的工作方式,而是利用電子電路產(chǎn)生一種逼真的貓叫聲,用模擬出來的這種叫聲嚇阻老鼠不讓其在一定范圍內(nèi)活動。至于這種驅(qū)
    發(fā)表于 04-28 06:36

    電腦概述

    Harrison新加坡 黃明吉先生個(gè)人主頁2009人工智慧單晶片電腦即機(jī)器人競賽教學(xué)視頻中國***地區(qū)第14屆人工智慧單晶片電腦競賽3.電腦實(shí)驗(yàn)平臺以及關(guān)鍵技術(shù)實(shí)驗(yàn)平臺
    發(fā)表于 09-13 08:47

    制作驅(qū)劑的教程

    描述驅(qū)劑我的項(xiàng)目是關(guān)于驅(qū)劑的,我之所以成功是因?yàn)槲业姆块g里有很多老鼠,我必須讓它消失。我有想法制作驅(qū)劑。PCB
    發(fā)表于 08-26 06:58

    電子仿聲驅(qū)

      老鼠的天敵,利用電子裝置來模擬貓叫聲驅(qū)是一種有效的方法。由于是電子裝置,貓叫聲
    發(fā)表于 04-16 22:19 ?1664次閱讀
    電子仿聲驅(qū)<b class='flag-5'>鼠</b>器

    開關(guān)電源在微型計(jì)算機(jī)中的應(yīng)用(長城0520A)

    開關(guān)電源在微型計(jì)算機(jī)中的應(yīng)用(長城0520A)
    發(fā)表于 11-03 11:25 ?1300次閱讀
    開關(guān)電源在微型<b class='flag-5'>計(jì)算機(jī)中</b>的應(yīng)用(<b class='flag-5'>以</b>長城0520A<b class='flag-5'>為</b><b class='flag-5'>例</b>)

    電子驅(qū)器工作原理及常見故障檢修

    電子驅(qū)器一般置于存放各類食品、糧食的倉庫等場所。它在工作時(shí)能產(chǎn)生逼真的貓叫聲,起到驅(qū)作用,可避免因使用鼠藥或機(jī)械滅鼠器而發(fā)生死老鼠對食品造成污染,保證食品安全。電子驅(qū)
    的頭像 發(fā)表于 02-11 16:07 ?2.1w次閱讀
    電子驅(qū)<b class='flag-5'>鼠</b>器工作原理及常見故障檢修

    湯姆加速布局AI應(yīng)用,接入OpenAI Sora模型,探索生成視頻素材之道

    湯姆稱,Sora是人工智能不斷演進(jìn)的里程碑之作。類似Sora的各類AI工具能夠助其更高效率、更低成本創(chuàng)建豐富多樣且用戶體驗(yàn)佳的AI應(yīng)用產(chǎn)品和服務(wù)。
    的頭像 發(fā)表于 03-04 13:46 ?637次閱讀

    湯姆正在推進(jìn)申請接入OpenAI的Sora模型

    湯姆在互動平臺上透露,公司正在積極推進(jìn)申請接入OpenAI的Sora模型,并計(jì)劃進(jìn)行相關(guān)素材制作的測試。目前,湯姆尚未正式接入Sora模型。
    的頭像 發(fā)表于 03-05 10:20 ?836次閱讀