0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

什么是Deepfake?為什么Deepfake生成的假臉會這么自然?

zhKF_jqr_AI ? 來源:未知 ? 作者:李倩 ? 2018-09-03 08:46 ? 次閱讀

編者按:自換臉工具Deepfake風行全球后,人們開始意識到除了詐騙短信、詐騙電話,現在連視頻都能“詐騙”了。為了應對這種由新技術帶來的犯罪風險,近來研究人員一直在努力發(fā)掘虛假視頻和真實視頻的區(qū)別,而就在本月初,美國國防部正式宣布了紐約大學開發(fā)的一個檢測工具,他們找到了GAN生成視頻的一些明顯特征。

當時美國國防部把這項技術譽為人類對于AI的軍備競賽的一個開端,近日,這項技術的開發(fā)人員接受了媒體采訪。讓我們結合報道和論文,近距離看看他們的方法究竟怎樣。

Deepfake當前的缺陷是沒法找到足夠閉著眼睛的圖像

隨著2018年年中將近,美國大選活動也開始逐漸升溫,在諸多宣傳中,一種新形式的虛假信息開始在社交媒體上廣泛傳播。這種生成虛假視頻的技術叫做“Deepfake”,它能把視頻中的臉換成其他人的臉,同時保持臉部肌肉運動和諧,口型和聲音匹配。

結合政治宣傳,這意味著任何人都能“惡搞”候選人,制作他們“演講”“活動”的假視頻。

由于這項技術十分新穎,效果又格外出色,普通人如果不仔細看,可能無法分辨真實視頻和虛假視頻之間的區(qū)別。為了防范它背后的社會安全隱患,近日,紐約大學的研究人員找到了一種區(qū)分真假視頻的可靠方法,他們發(fā)現在虛假視頻中,人物的頭部動作和瞳孔顏色通常會很怪異,當人眨眼時,它的眼球會出現詭異運動。

什么是Deepfake?

既然要對抗虛假視頻,就讓我們先從Deepfake講起,下面是它的作品“案例”:

視頻中左側為真實視頻,右側是Deepfake的加工產品。它的工作機制類似各語言間的互相翻譯,先使用一種稱為深層神經網絡機器學習系統(tǒng)來檢查一個人的面部運動,再合成目標人物的臉,讓后者作出類似的動作。

在生成逼真的視頻前,這個深層神經網絡需要大量目標任務圖像數據,圖像的數量和多元性決定了網絡的“學習”效果——數據越多,模擬效果就越逼真。

上圖是對神經網絡訓練、測試過程的細化圖解??戳T視頻,也許有人會有疑問:為什么Deepfake生成的假臉會這么自然?這是因為在訓練期間(Training Phase),我們會先把目標人物A的臉摳出來,定位好五官位置,訓練一個無論如何扭曲A的臉,最后都能生成正常A臉的網絡。

一旦上面的網絡訓練好,我們就可以往其中輸入B的臉。這時在神經網絡看來,B的臉其實就是經扭曲的A的臉,所以它會直接“糾正”。至于表情和口型等細節(jié),這在訓練過程中就已經學會了,數據越多,效果越好,相信這點不難理解。

除了上述基礎內容,為了確保生成效果,我們還要關注清晰度、人臉識別效果、圖片融合等問題。

眨眼/不眨眼?

如果我們再去觀察上面這個視頻,相信不少細心的讀者會發(fā)現:在虛假視頻中,人物往往“雙眼無神”,幾乎不怎么眨眼。這正是目前Deepfake的一個弱點。

當然,這個弱點并非來自算法本身,更多的是它使用的數據集。健康成年人的眨眼頻率是2-10秒一次,一次眨眼耗費十分之一到十分之四秒。在真實演講視頻中,主講人眨眼是十分正常的現象,但虛假視頻里的假人幾乎個個是“不眨眼”大師。

把主持人的臉換成尼古拉斯·凱奇(對應視頻幀)

這是因為當訓練深層神經網絡時,我們用的是來自網絡的靜態(tài)圖像。即便是尼古拉斯·凱奇這樣的公眾人物,他的大多數照片都是睜眼的,除非為了某種藝術效果,攝影師也不會公布明星的閉眼照。這意味著數據集中的圖像沒法表示眼球的自然運動方式。

既然數據集中幾乎沒有眨眼圖像,那么Deepfake學會“眨眼”的概率就幾乎為零。但看到這里也許有人會有疑問,之前的視頻中明明也出現了眨眼鏡頭,這個依據是不是不可信?這就要聯(lián)系人類眨眼的頻率和速度。

上面是真假視頻中人物的眨眼記錄,研究人員統(tǒng)計了所有視頻中的真人眨眼頻率,并框定了一個范圍,他們發(fā)現Deepfake視頻中假人的眨眼頻率遠低于這個范圍。

如何檢測眨眼?

有了上述發(fā)現,整個“打假”問題就可以被簡化為“眨眼檢測”問題。

論文作者開發(fā)了一種檢測視頻中人物何時眨眼的方法。更具體地說,他們引入了兩個神經網絡,其中第一個網絡先掃描視頻的每一幀,檢測其中是否包含人臉,如果有,自動定位到眼部。之后,第一個網絡把眼部截圖輸入第二個網絡,由它利用眼睛的外觀、幾何特征和運動來判斷這是睜眼還是閉眼。

下面是第二個深層神經網絡LRCN的示意圖:

它包含三個模塊:特征提取、序列學習和狀態(tài)預測。

其中特征提取模塊(第二行)負責把輸入的眼部圖像轉成神經網絡可以“理解”的特征,這是個基于VGG16架構的CNN。序列學習模塊(第三行)由RNN和LSTM構成,LSTM-RNN的使用是為了增加模型的信息存儲量,避免在使用隨時間反向傳播(BPTT)算法時出現梯度消失。最后一個模塊——狀態(tài)預測,由全連接層構成,它輸入LSTM的輸出,并用一個概率預測是睜眼(0)還是閉眼(1)。

根據實驗結果,LRCN的準確率高達95%。

當然,雖然論文只介紹了判斷眨眼頻率的方法,到這里就結束了。但根據之前Siwei Lyu的介紹,他們團隊其實找到了一種更高效的技術,只是為了防止某些人惡意迭代Deepfake,這種方法暫時需要保密。

論文方法的缺陷

在接受媒體采訪時,Siwei Lyu自己也坦言,論文只提出了一種短期內的有效方法,它的“壽命”可能很短,破解方法也很簡單。

之前我們提到了,算法學不會眨眼,主要是因為沒有眨眼數據。換句話說,如果我們能提供大量不同眨眼階段的圖像,那么深層神經網絡學會眨眼只是時間問題。更有甚者,為了讓尼古拉斯·凱奇學會眨眼,我們不需要派狗仔去偷拍,收集自己的眼部數據就夠了。

此外,對于上面這類視頻,這種方法也沒法起作用。因為它不同于Deepfake的全臉移植,而是把假嘴和假聲音(這年頭合成聲音也能造假)移到真人臉上。

這是去年美國華盛頓大學研究團隊公布的一項成果,它不需要掃描大量的演講影音資料,也不需要分析不同人說出相同句子的嘴形,只需影音素材即可,成本和規(guī)模更小,制作耗時也更短(17小時)。

因此,全民“打假”依然任重道遠,這種方法只是當前邁出的第一步。未來,生成假視頻和檢測假視頻將成為日常生活中的常見博弈,但這應該不是所有人希望看到的。在鼓勵研究人員開發(fā)更靠譜的檢測方法的同時,我們應該呼吁停止濫用技術。

除了不要再制作某些低俗、違法視頻,電影工業(yè)也要把它用于正途,不要讓技術淪為摳圖流量明星的新“捷徑”。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 神經網絡
    +關注

    關注

    42

    文章

    4717

    瀏覽量

    99991
  • 算法
    +關注

    關注

    23

    文章

    4551

    瀏覽量

    92014
  • 人臉識別
    +關注

    關注

    76

    文章

    3998

    瀏覽量

    81349

原文標題:深度“打假”:通過眨眼檢測“deepfake”視頻

文章出處:【微信號:jqr_AI,微信公眾號:論智】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    PPG信號識別思路開啟DeepFake 的識別新方向

    在 Face Forensics++、CelebDF 等常用的數據集上,Fake Catcher 的準確率能夠超過90%。
    的頭像 發(fā)表于 10-09 16:21 ?3004次閱讀

    科學家已找到AI換視頻的破解之法

    利用Deepfake技術制作的視頻足以亂真。但日前研究人員通過人工智能對虛假視頻中的人像眨眼進行分析,從而可以有效將視頻檢測出來。
    的頭像 發(fā)表于 07-20 17:05 ?1.5w次閱讀

    全球首款“反AI變臉刑偵檢測工具”,專用于檢測AI變臉/換造假技術

    DARPA 的這款工具主要是基于紐約州立大學奧爾巴尼分校教授Siwei Lyu和他的學生 Yuezun Li 和 Ming-Ching Chang 的共同發(fā)現,也即使用AI技術生成(一般通稱
    的頭像 發(fā)表于 08-10 08:51 ?1.2w次閱讀

    針對計算機生成視頻DeepFake較為全面測評的論文

    他們經過一系列實驗發(fā)現,當前已有的先進人臉識別模型和檢測方法,在面對 DeepFake 時基本可以說是束手無策——性能最優(yōu)的圖像分類模型 VGG 和基于 Facenet 的算法,分辨真假視頻錯誤率高達 95%;基于唇形的檢測方法,也基本檢測不出視頻中人物說話和口型是否一致。
    的頭像 發(fā)表于 01-02 09:49 ?7091次閱讀

    AI Deepfake再升級,以假亂真!安全性令人擔憂

    Deepfake在技術上突破更大,人們愈加感到不安。
    的頭像 發(fā)表于 06-12 13:54 ?3230次閱讀

    DeepFake術混淆視聽 攪亂美國政壇

    最近,DeepFake 技術又一次站在了風口浪尖上。不只是因為它能在小電影上移花接木,而是立法者終于意識到它的可怕之處。
    的頭像 發(fā)表于 06-17 09:35 ?3093次閱讀

    伯克利打造AI識別系統(tǒng),DeepFake不再可怕!精準判斷真?zhèn)?/a>

    DeepFake視頻的泛濫早已經不只是惡搞和娛樂的問題了!這些視頻衍生出的假新聞可能會成為2020美國大選的一場噩夢。
    的頭像 發(fā)表于 06-24 11:42 ?4742次閱讀

    關上Deepfake的潘多拉魔盒,RealAI推出深度偽造視頻檢測工具

    的遮羞布也被無情揭開。 圖:Saturday Night Live中凱特麥金農換伊麗莎白沃倫 面對因新技術而引發(fā)的公眾恐慌,相關監(jiān)管機構也加快采取行動,出臺打假策略,旨在打擊Deepfake虛假音視頻,控制造假病毒的傳播。同時,國內也迎來了最嚴數據管理的一年。 11月2
    發(fā)表于 12-19 10:13 ?568次閱讀

    人工智能如何避免深度偽造的出現

    采用深度偽造(Deepfake生成的視頻和音頻,人工智能生成的文本、詩歌和歌詞,網站和假新聞進入人們的世界。
    發(fā)表于 02-28 11:41 ?2445次閱讀

    Facebook首屆Deepfake檢測挑戰(zhàn)賽的結果:平均準確率65.18%

    據外媒報道,Facebook日前宣布了其首屆Deepfake檢測挑戰(zhàn)賽的結果,獲勝算法能夠以65.18%的平均準確率發(fā)現非常逼真的Deepfake虛假內容。Deepfake檢測挑戰(zhàn)賽旨在尋找能夠識別出由人工智能(AI)操縱的視頻
    的頭像 發(fā)表于 06-15 10:19 ?2228次閱讀

    阿里DeepFake檢測技術獲國際頂認可,實現更好的檢測效果

    一段包含多個人臉的視頻中,攻擊者只對一個或者幾個人的人臉進行偽造,這種“半真半”的偽造情況能否被檢測識別?近日,阿里安全圖靈實驗室宣布,其已成功打造出針對這種換視頻的DeepFake檢測技術,闡述該技術的論文被國際學術頂
    的頭像 發(fā)表于 09-02 17:06 ?1836次閱讀

    用 “心跳”識別視頻,準確率高達 97%

    Deepfake 真是讓人又愛又恨。 眾所周知,基于深度學習模型的 Deepfake 軟件,可以制造虛假的人臉視頻或圖像。它在影視、娛樂等行業(yè)有著廣泛的應用場景。 但自 2017 年起
    的頭像 發(fā)表于 10-30 16:34 ?2783次閱讀

    AI換門檻漸低,如何制止走向墮落?

    Deepfake是一種換技術,可以將圖片或視頻中A的換到B的頭上。其名字由深度機器學習(deep machine learning)和照片(fake photo)組合而成。這項技
    的頭像 發(fā)表于 12-10 14:31 ?1530次閱讀

    人工智能換為什么人臉轉到90度時會出現漏洞?

    視頻偽造是 Deepfake 技術最為主要的代表,其制作假視頻的技術也被稱為人工智能換(AI face swap)。一直以來,研究者發(fā)現 DeepFake 存在著這樣一個漏洞:當偽造人臉頭部轉到 90 度時(側
    發(fā)表于 08-16 11:04 ?651次閱讀

    LastPass成功抵御Deepfake音頻攻擊,員工警惕度高未受影響

    據LastPass情報分析師麥克·科薩克介紹,該次攻擊中,一位員工接收到多通電話、短信以及至少一封語音郵件,均為威脅者通過WhatsApp假冒公司CEO發(fā)出的Deepfake音頻。
    的頭像 發(fā)表于 04-12 15:41 ?239次閱讀