AI技術(shù)的出現(xiàn)更是推動(dòng)了人臉識(shí)別技術(shù)的流行,但是以假亂真的AI換臉術(shù)就真的可靠嗎?也許眼見未必為實(shí)。
在座的各位,是不是已經(jīng)試過人臉解鎖手機(jī)了?是不是嘗試過刷臉購物了?玩過人臉識(shí)別的動(dòng)物表情小游戲了沒?如果都有的話,那么想必咱們可以達(dá)成一個(gè)共識(shí):AI在人臉這件事上已經(jīng)越來越精通了。
如果說識(shí)別只是AI對(duì)人臉做出的第一件事,那么第二件事是什么呢?從種種跡象來看,答案只有一個(gè),那就是給人換臉。
當(dāng)然,AI不會(huì)真的去給人整容(至少目前不會(huì)),它能做的是在視頻里給人換臉。比如最近刷屏級(jí)的小視頻可能大家都已經(jīng)看過了。
視頻中的女主角(確切的說是女主角的臉)是《神奇女俠》的扮演者蓋爾·加朵。但這當(dāng)然不是其本人出演了什么令人羞恥的小電影。而是有人用深度學(xué)習(xí)技術(shù)把蓋爾·加朵的臉替換到了原片女主角的身體上。乍看之下基本沒什么破綻,但其實(shí)兩個(gè)人是不怎么像的。
(左為原片角色,二人差距其實(shí)不?。?/p>
這個(gè)ID叫做deepfakes的網(wǎng)友,始終致力于在Reddit上分享其利用AI技術(shù)制作的明星換臉小視頻。差不多所有當(dāng)紅的好萊塢女星都被他“炮制”了一遍。
各位同學(xué)是不是感覺有點(diǎn)興奮?以后想看哪位明星的片子自己動(dòng)手做就是了,甚至可以把自己的臉替換上去演對(duì)手戲,各種YY皆能成真。
可是,如果是你親戚朋友的臉被替換了呢?如果把犯罪現(xiàn)場所拍攝嫌疑人的臉換成你呢?如果在你不知情的情況下,不法分子發(fā)給你家人一段有你露臉的綁架視頻呢?
當(dāng)我們不能相信自己的眼睛,各種混亂和罪惡的重量,絕對(duì)會(huì)大于那一點(diǎn)點(diǎn)違法的“福利”。
換臉的恐怖之處,在于AI很簡單
其實(shí)視頻換臉這件事也并不出奇了。耳熟能詳?shù)目赡芤獙佟端俣扰c激情7》里為了讓保羅·沃克回歸,片方用了替身+動(dòng)態(tài)捕捉+CGI動(dòng)畫的方式,以保羅的兩位弟弟為替身,最終讓觀眾的老朋友重新回到了大屏幕上。
(保羅·沃克和最終成為他替身的兩個(gè)弟弟)
這樣的換臉技術(shù)雖然高超,卻并不讓我們擔(dān)憂。因?yàn)檫@是電影的藝術(shù)需要,必須要耗費(fèi)大量人工與后期特效成本,并且要求專業(yè)的視頻剪輯技術(shù)才能實(shí)現(xiàn)。這意味著,這種精準(zhǔn)的換臉并不能出現(xiàn)在日常生活中,也不會(huì)給普通人帶來威脅。
但AI在瓦解這一切。
讓我們重新回到前面提到制作女星換臉小電影的deepfakes。這哥們不僅是個(gè)老司機(jī),還是一位熱愛分享的“技術(shù)型活雷鋒”。他不僅免費(fèi)發(fā)布了他的成果,還不厭其煩的分享了自己制作換臉視頻的教程,以及自己編寫的深度學(xué)習(xí)代碼和相關(guān)數(shù)據(jù)集……大概他的意思是,別再問我要誰誰的視頻了,你們自己做去吧……
當(dāng)然,這哥們也不是專注女明星,上邊這張就是他分享的如何把尼古拉斯·凱奇換成川普的教程,大概其內(nèi)心深處也深諳中國的“表情包之道”。
根據(jù)他的分享,制作一個(gè)明星換臉視頻非常簡單。以蓋爾·加朵的視頻為例,他首先會(huì)在谷歌、YouTube以及各種網(wǎng)絡(luò)圖集中收集蓋爾·加朵的各個(gè)角度的視頻和圖片。組成一個(gè)能滿足深度學(xué)習(xí)任務(wù)進(jìn)行臉部替換的素材庫。
然后他會(huì)通過TensorFlow上提供的機(jī)器視覺相關(guān)模型,學(xué)習(xí)和理解原版小電影中女主角的面部特征、輪廓、動(dòng)作和嘴型等等。繼而讓模型在素材庫中尋找各種角度、各種表情下AI認(rèn)為合適的圖片與視頻,對(duì)原本視頻進(jìn)行替換。
雖然可以看到,他做的視頻在很多細(xì)節(jié)上還是有瑕疵,不夠自然。但是大體一看已經(jīng)可以蒙混過關(guān),并且制作效果在日漸提高。
這里隱藏的真正問題,在于利用開源的AI架構(gòu)進(jìn)行視頻換臉這件事,不是太復(fù)雜太前衛(wèi)了,而是太簡單太容易了!
為了驗(yàn)證這點(diǎn),我先后把deepfakes分享的視頻和代碼發(fā)給了三位從事機(jī)器視覺相關(guān)工作的朋友,得到的反饋基本一致:這東西毫無技術(shù)難度。只要會(huì)用TensorFlow的基礎(chǔ)功能,電腦顯卡不至于太爛,差不多幾個(gè)小時(shí)就可以搞出來一個(gè)。
哪怕連編程基礎(chǔ)都沒有的人,跟著教程一步步走,搜集足夠多的素材,也可以自己搞出來換臉視頻。
設(shè)想一下,當(dāng)你身邊某個(gè)仇人想要陷害你的時(shí)候,只要收集你的照片和自拍,就可以隨意把你和任何罪惡甚至骯臟的視頻結(jié)合到一起,然后在你的社交圈里散播的到處都是,那場面何其令人膽寒?這就像槍支可以無審查、無監(jiān)管的隨意買賣,并且價(jià)格低廉。
在機(jī)器視覺開發(fā)的底層技術(shù)日益完善后,視頻換臉必然繼續(xù)在三個(gè)層面加強(qiáng)它的普及化:
1.近乎無門檻使用。換臉相關(guān)的數(shù)據(jù)集、源代碼和架構(gòu),在今天只要有心就可以輕易找到,隨著技術(shù)的成熟,這種趨勢大概只會(huì)愈演愈烈。
2.可以工具化。由于技術(shù)并不復(fù)雜,這個(gè)功能被工具化的可能性很大。也就是說不法分子可以把它做成一個(gè)應(yīng)用,購買了之后只要按要求添加視頻和希望替換人的圖像,就可以自動(dòng)生成換臉視頻,達(dá)成真正的無門檻。
3.欺騙性不斷增強(qiáng):有相關(guān)AI從業(yè)者認(rèn)為,deepfakes的視頻僅僅經(jīng)歷了初步的學(xué)習(xí)和替換過程,沒有進(jìn)行修補(bǔ)和細(xì)節(jié)雕琢,就已經(jīng)獲得了很高的完成度。那么假如進(jìn)一步結(jié)合對(duì)抗生成網(wǎng)絡(luò)進(jìn)行修飾,大概就可以生成真?zhèn)坞y辨的視頻了。
總之,當(dāng)我們知道照片可以PS之后,視頻也不再可信了。而且,不僅僅是視頻。
山雨欲來:下一站是直播+換臉
去年年初的時(shí)候,德國紐倫堡大學(xué)的相關(guān)團(tuán)隊(duì)發(fā)布了一個(gè)應(yīng)用,也就是非常出名的Face2Face。這款應(yīng)用的能力,是通過攝像頭進(jìn)行臉部追蹤,從而讓視頻里的人跟著你說話。
由于其精準(zhǔn)的捕捉效果和實(shí)時(shí)化能力,F(xiàn)ace2Face在誕生之日起就引起了軒然大波。在其演示視頻下,無數(shù)網(wǎng)友質(zhì)疑這項(xiàng)技術(shù)將成為網(wǎng)絡(luò)詐騙、綁架勒索的幫兇,質(zhì)疑如果視頻電話的另一端,竟然不是你認(rèn)識(shí)的那個(gè)人,那將會(huì)是多么恐怖的一件事。
當(dāng)然了,F(xiàn)ace2Face目前是個(gè)封閉狀態(tài),用戶只能扮演其提供的角色嘗嘗鮮而已。但經(jīng)過了一年多的發(fā)展,直播中的臉部捕捉和替換技術(shù)也已經(jīng)大幅度提升。如今我們可以在直播平臺(tái)上看到實(shí)時(shí)替換的背景和道具,而利用AI在直播中進(jìn)行臉部替換,也已經(jīng)是近在咫尺的一件事。
與之相配合的,是AI進(jìn)行聲紋識(shí)別與聲音合成技術(shù)也在突飛猛進(jìn)。比如Adobe在近兩年陸續(xù)發(fā)布了新的聲音合成技術(shù)。普通人用AI來進(jìn)行柯南用蝴蝶結(jié)完成的換聲,已經(jīng)不是多困難的事情。
借助AI,直播中換臉和換聲正在同步向前跨越。那么帶來的影響會(huì)是什么呢?
雙頭人開播?川普坐在白宮辦公室里跟你連麥?某當(dāng)紅小鮮肉在直播中跪著給你唱《征服》?沒問題,統(tǒng)統(tǒng)都可以。
有沒有很開心?當(dāng)然,你跟直播平臺(tái)可能都開心了,小鮮肉卻不開心了。
而換個(gè)角度想想,假如同樣的技術(shù)運(yùn)用在視頻電話里呢?假如你接到的親人/朋友的視頻電話,套取你的隱私或者跟你借錢,事后竟然發(fā)現(xiàn)是陌生人處心積慮偽造的。假如一個(gè)人可以徹底偽裝成另一個(gè)人,還會(huì)有人開心嗎?
當(dāng)我們打開手機(jī)電腦,發(fā)現(xiàn)一切都不是真的。真是挺喪心病狂的一件事。
AI換臉并不難,由于多種應(yīng)用場景的存在和超高的娛樂性,我們也很難阻止它的到來。于是真正該讓我們頭疼的,大概就是深藏其中的法律問題與倫理陷阱。
基本可以很靠譜的說,今天國內(nèi)外的很多直播與視頻平臺(tái),都在研發(fā)直播換臉技術(shù)。并且某些解決方案已經(jīng)相當(dāng)成熟。試想一下,換臉之后的當(dāng)紅女神與小鮮肉,整晚開直播說一些迎合獵奇心理的話,禮物還不多到把平臺(tái)擠爆了?——即使用戶明知是假的。
當(dāng)然,正規(guī)直播平臺(tái)大概不敢這么做,使用這種技術(shù)會(huì)非??酥?。但是假如有第三方插件可以做這件事呢?或者在缺乏監(jiān)管的地下直播/半地下直播平臺(tái)上呢?畢竟利益和獵奇可以驅(qū)使人去做各種事情,技術(shù)的門檻一旦解禁,滾滾而來的法律問題很可能決堤。
這里隱藏的倫理陷阱,是肖像權(quán)這個(gè)東西可能會(huì)前所未有的復(fù)雜化。無論是明星還是普通人,大概都不希望被別人“易容”成自己的樣子來進(jìn)行直播。
但問題是,你如何證明ta易容的是你呢?或者說你如何證明你是你?我們知道,肖像權(quán)是指你本人拍攝的圖像和視頻。但是用你的面部數(shù)據(jù)搭建起來的AI模型還屬于你的肖像權(quán)范疇嗎?
更困難的是,你根本無從證明AI搭建出來的肖像模型跟你有直接關(guān)系。畢竟深度學(xué)習(xí)訓(xùn)練是在看不見的后端完成的,制作者大可以說是臆想出來,或者用跟你很像的人來搭建的。再或者只比你臉上多一顆痣,是不是就不是你了呢?
更復(fù)雜的倫理情況還有很多,比如一個(gè)人享有故去親人的肖像權(quán)嗎?假如一個(gè)人希望用AI來重現(xiàn)已故的親屬,與亡者進(jìn)行視頻通話,但另一個(gè)親屬卻堅(jiān)決認(rèn)為這是違法行為,那么到底該聽誰的?
這還是基礎(chǔ)的倫理與法律矛盾,在這之外,是大把可以用AI換臉術(shù)進(jìn)行的非法勾當(dāng)。比如詐騙、勒索、誣陷等等等等。
評(píng)論
查看更多