在國慶假期期間,網(wǎng)友惡搞的雷軍AI配音突然爆火,引發(fā)了諸多爭議。AI造假音視頻,似乎已經(jīng)成為一個無法關(guān)閉的潘多拉魔盒。在更早之前,韓國爆發(fā)的Deepfake危害事件就曾引發(fā)全球關(guān)注。根據(jù)相關(guān)報(bào)道,最初是由多名韓國女性通過社交平臺,披露了傳播Deepfake換臉不雅視頻的事件。隨后,有越來越多的危害事件與受害人被爆出。
根據(jù)社交媒體流傳的受Deepfake影響名單,有超過百所韓國中小學(xué)以及國際學(xué)校出現(xiàn)相關(guān)問題。有韓國官員表示,受害者可能達(dá)到22萬人。
這里大家可能會有這樣一個疑問:為什么多年來人人喊打的Deepfake反而愈演愈烈?
要知道,早在2017年Deepfake剛剛出現(xiàn)的時(shí)候,僅僅幾天就遭到了全球范圍的合力封殺,包括但不限于主流社交媒體的嚴(yán)格封禁。此后,多個國家與地區(qū)采用了立法的形式,嚴(yán)禁利用Deepfake以及其他AI換臉技術(shù)侵犯他人肖像權(quán)與隱私權(quán)。
危害難以杜絕,是因?yàn)镈eepfake技術(shù)高深,讓人防不勝防嗎?
答案剛好相反,Deepfake難以禁止的原因,恰恰在于其過分簡單,只需要簡單的技術(shù)資源就能造成巨大的破壞性影響。
而這些資源,在今天的互聯(lián)網(wǎng)環(huán)境下能夠輕而易舉地獲取。
我想,我們沒有必要從人性和動機(jī)上討論為什么有人制作和傳播AI換臉視頻。只要違法成本夠低,這種行為就必然無法杜絕。作為普通人,我們也難以從立法和執(zhí)法的角度探討如何打擊Deepfake。我們能做的,是審視進(jìn)行Deepfake的真實(shí)情況,進(jìn)而考慮如何增大違法難度,壓縮這種行為的生存空間。
Deepfake被很多媒體稱作“人類最邪惡的AI技術(shù)”。這種描述有其合理性,但也客觀上對Deepfake進(jìn)行了妖魔化、神秘化的修飾,讓不了解的人將其與黑客、勒索病毒、暗網(wǎng)等關(guān)鍵詞聯(lián)系起來,認(rèn)為其非常隱秘而高深。
事實(shí)恰恰相反,Deepfake的危害性與破壞性,恰恰在于其操作簡單。近乎沒有任何技術(shù)學(xué)習(xí)門檻,同時(shí)其所需要的每一步幫助,都可以在公開的互聯(lián)網(wǎng)環(huán)境中堂而皇之地獲取。
試想一下,韓國的22萬名受害者,不可能都是某幾個技術(shù)大牛進(jìn)行的施暴。當(dāng)普通人可以隨時(shí)隨地,沒有成本地作惡,惡意才真正難以被遏制。
之所以這樣說,是我們必須先了解Deepfake的具體流程。一般來說,使用Deepfake進(jìn)行AI換臉,需要經(jīng)歷以下幾個步驟:
1.準(zhǔn)備Deepfake相關(guān)軟件,或者找到具有類似功能的在線AI開發(fā)平臺。
2.準(zhǔn)備要進(jìn)行人臉替換的視頻,對視頻進(jìn)行照片化切圖。
3.挑選出若干照片中要替換的人臉并進(jìn)行操作。俗稱切臉,提臉。
4.將準(zhǔn)備好的照片進(jìn)行覆蓋,進(jìn)而進(jìn)行模型訓(xùn)練。這一步對于缺乏技術(shù)功底的人來說,大概率需要預(yù)訓(xùn)練模型來輔助訓(xùn)練。
5.訓(xùn)練完成,生成視頻。
從這個流程中我們可以總結(jié)出,想要進(jìn)行一次有危害性的Deepfake最多只需要四件東西:AI換臉軟件、預(yù)訓(xùn)練模型、被換臉的視頻、受害人照片。
獲取這些東西過分容易,就是Deepfake百禁不絕,反而流毒更廣的核心原因。
我們可以來分步驟看看,Deepfake的“作案工具”究竟來自哪里。討論這些的原因絕不是希望普及相關(guān)知識,而是希望指出互聯(lián)網(wǎng)環(huán)境下,留給Deepfake作惡者的機(jī)會與漏洞究竟在哪里。這些漏洞不被斬?cái)啵瑑H憑道德層面的號召倡議,或者對AI換臉視頻的技術(shù)識別,是斷然無法組織別有用心者的。
首先,AI換臉必然需要受害人的照片。根據(jù)相關(guān)技術(shù)社區(qū)的分享,最初版本的Deepfake大概需要50張、多角度、高清晰度的照片,才能實(shí)現(xiàn)較為自然的視頻合成。但經(jīng)過幾年的迭代,目前只需要20張左右的照片就可以實(shí)現(xiàn)。
試想一下,對于稍微有社交媒體分享習(xí)慣的朋友來說,20張照片被盜用簡直是輕而易舉。
加上一段很容易找到的不雅視頻,一場無妄之災(zāi)可能就此開啟。
得到了受害人的照片信息之后,不法分子就要找到可以進(jìn)行Deepfake的軟件。Deepfake的創(chuàng)始人最早是將軟件與教程分享到了Reddit上,此后很快被官方禁止。一氣之下,作者就將這款軟件的代碼全部放到了Github上進(jìn)行免費(fèi)分享,可供隨時(shí)下載與使用。
到2022年,相關(guān)軟件已經(jīng)升級到了DeepFaceLab 3.0版本,不僅可以在作者的Github下載,在中文互聯(lián)網(wǎng)環(huán)境中還有大量QQ群、網(wǎng)盤鏈接進(jìn)行分享。
更為可惡的是,在各個下載渠道中獲得的DeepFaceLab,都有非常詳細(xì)的中文說明與操作指引。而在切臉這類比較繁瑣的工作上,甚至有專門軟件進(jìn)行加速。
唯一可能給不法者造成阻礙的,是AI換臉依舊需要比較好的顯卡來進(jìn)行訓(xùn)練加速,但中高端的游戲顯卡也已經(jīng)完全足夠。
獲取成本為0的不法軟件,技術(shù)成本為0的操作難度,構(gòu)成了Deepfake真正恐怖的地方。
到以上為止,如果是一個有AI技術(shù)能力的人,已經(jīng)獲得了全部進(jìn)行Deepfake施暴的前提條件。但對不太了解AI技術(shù)的人來說,還有一個關(guān)鍵需求,就是獲取預(yù)訓(xùn)練模型。
預(yù)訓(xùn)練模型,是AI開發(fā)的一個基本機(jī)制。由于大部分AI模型的前置訓(xùn)練任務(wù)是相同的,因此開發(fā)者傾向?qū)⑾嗤牟糠诌M(jìn)行預(yù)訓(xùn)練,在同類任務(wù)中作為公用底座來使用。而在AI換臉任務(wù)中,由于難以掌握訓(xùn)練方法,大部分新手訓(xùn)練出的AI換臉模型會出現(xiàn)貼臉不自然,嚴(yán)重掉幀等現(xiàn)象。這時(shí)候就需要使用預(yù)訓(xùn)練模型進(jìn)行訓(xùn)練,從而在提升模型精度的同時(shí),也降低模型訓(xùn)練所需時(shí)間。
按理說,作為非技術(shù)人員的普通人,應(yīng)該較難獲得預(yù)訓(xùn)練模型來進(jìn)行Deepfake吧?
事實(shí)并非如此,打開很多電商平臺、二手交易平臺,就可以輕松找到專用于Deepfake的預(yù)訓(xùn)練模型。這些模型一般被稱為“AI金丹”。
在某主流二手交易平臺,搜索AI金丹、AI仙丹、AI底丹,或者DFL丹藥、DFL靈丹等關(guān)鍵詞,會出現(xiàn)大量Deepfake預(yù)訓(xùn)練模型的出售聯(lián)接。一般只需要幾元錢成本。
由于平臺缺乏監(jiān)管,這類售賣行為長期存在,成為滋長惡行的“產(chǎn)業(yè)鏈”。就連上文提到的DeepFaceLab軟件,很多時(shí)候也可以在二手交易平臺買到,賣家還對進(jìn)行操作教程與指引。
而這種“AI仙丹產(chǎn)業(yè)鏈”另一個難以杜絕的地方在于,一個Deepfake用戶熟練操作之后,又可以將自己的模型制作為預(yù)訓(xùn)練模型,也被俗稱為“煉丹”。煉好的彈藥再到二手平臺進(jìn)行販賣,這種灰色產(chǎn)業(yè)就這樣不斷擴(kuò)散綿延。
總結(jié)Deepfake施暴者每一步的支持來源,是為了指出杜絕其危害,真正應(yīng)該著手發(fā)力的地方。
目前相關(guān)話題的討論,經(jīng)常會陷入某種誤區(qū):總是想要用非常前沿的,高成本的方法去阻擊Deepfake,比如倡導(dǎo)利用AI技術(shù)來鑒別視頻是否為AI生成等。
當(dāng)然,通過AI算法來分辨AI換臉有重要的應(yīng)用場景,比如在AI換臉詐騙識別上,檢測視頻造假就至關(guān)重要。
但在類似韓國Deepfake事件,這類利用AI換臉炮制不雅視頻的犯罪中,識別視頻為假是無力的,甚至是無用的。
對于造假者與傳播者而言,他們大多不在乎視頻是否為假。依靠高精尖的智能化技術(shù)去檢測Deepfake,就像用微小的技術(shù)沙袋,去堵決堤的人性江河,不過是揚(yáng)湯止沸而已。
更有效的方法,或許是釜底抽薪,是從源頭上杜絕別有用心者嘗試Deepfake。
首先,或許我們需要在社交媒體上分享照片時(shí)更加慎重。誠然,不能讓受害者承擔(dān)制止犯罪的義務(wù),但在這個充滿不確定性的網(wǎng)絡(luò)環(huán)境中,個人隱私的保護(hù)責(zé)任也在變得愈發(fā)重要。
接下來,是對相關(guān)軟件要采取更具嚴(yán)格的封禁策略。對傳播類似軟件采取適當(dāng)?shù)闹浦剐袨椤S绕湓贏IGC興起后,大量新型平臺開始為普通開發(fā)者提供各種各樣的AI開發(fā)功能。一定要謹(jǐn)慎提防類似功能混跡其中,成為新的AI安全漏洞。
此外,電商平臺與二手交易平臺需要更加嚴(yán)格監(jiān)管。堵住Deepfake軟件與預(yù)訓(xùn)練模型的售賣渠道。切斷利益鏈,往往是禁止不法行為的關(guān)鍵。
在今天,我們與Deepfake的斗爭才剛剛開始。對它的祛魅與了解,是抵制惡意的第一步。
審核編輯 黃宇
-
AI
+關(guān)注
關(guān)注
87文章
29707瀏覽量
268024 -
DeepFake
+關(guān)注
關(guān)注
0文章
15瀏覽量
6658
發(fā)布評論請先 登錄
相關(guān)推薦
評論