0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何用對抗樣本修改圖片,誤導(dǎo)神經(jīng)網(wǎng)絡(luò)指鹿為馬

DPVg_AI_era ? 來源:未知 ? 作者:李倩 ? 2018-11-22 09:49 ? 次閱讀

這篇文章來自同濟大學(xué)研究生張子豪的投稿,介紹了人工智能信息安全的交叉前沿研究領(lǐng)域:深度學(xué)習(xí)攻防對抗。

本文介紹了如何用對抗樣本修改圖片,誤導(dǎo)神經(jīng)網(wǎng)絡(luò)指鹿為馬;對 NIPS 2017 神經(jīng)網(wǎng)絡(luò)對抗攻防賽 3 項冠軍清華團隊的算法模型進行了解讀。

文章部分內(nèi)容來自 2018 CNCC 中國計算機大會—人工智能與信息安全分會場報告。

GAN 一點都不擼棒,簡直不要太好騙:胖達變成猴,山誤認為狗

對抗樣本不是僅在最后預(yù)測階段產(chǎn)生誤導(dǎo),而是從特征提取過程開始就產(chǎn)生誤導(dǎo)

NIPS 2017 神經(jīng)網(wǎng)絡(luò)對抗攻防賽中,清華大學(xué)的學(xué)霸們采用了多種深度學(xué)習(xí)模型集合攻擊的方案,訓(xùn)練出的攻擊樣本具備良好的普適性和可遷移性。

全文大約3500字。讀完可能需要好幾首下面這首歌的時間

胖虎和吳亦凡,邊界是如此的模糊

王力宏和張學(xué)友,看上去竟如此的神似

人臉識別、自動駕駛、刷臉支付、抓捕逃犯、美顏直播…人工智能與實體經(jīng)濟深度結(jié)合,徹底改變了我們的生活。神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)貌似強大無比,值得信賴。

但是人工智能是最聰明的,卻也是最笨的,其實只要略施小計就能誤導(dǎo)最先進的深度學(xué)習(xí)模型指鹿為馬。

大熊貓 = 長臂猿

早在2015年,“生成對抗神經(jīng)網(wǎng)絡(luò) GAN 之父” Ian Goodfellow 在 ICLR 會議上展示了攻擊神經(jīng)網(wǎng)絡(luò)欺騙成功的案例。

在原版大熊貓圖片中加入肉眼難以發(fā)現(xiàn)的干擾,生成對抗樣本。就可以讓 Google 訓(xùn)練的神經(jīng)網(wǎng)絡(luò)誤認為它 99.3% 是長臂猿。

阿爾卑斯山 = 狗

2017 NIPS 對抗樣本攻防競賽案例:阿爾卑斯山圖片篡改后被神經(jīng)網(wǎng)絡(luò)誤判為狗、河豚被誤判為螃蟹。

對抗樣本不僅僅對圖片和神經(jīng)網(wǎng)絡(luò)適用,對支持向量機、決策樹等算法也同樣有效。

那么,具體有哪些方法,可以把人工智能,變成人工智障呢?

人工智障:逃逸攻擊,白盒/黑盒,對抗樣本

逃逸攻擊可分為白盒攻擊和黑盒攻擊。

白盒攻擊是在已經(jīng)獲取機器學(xué)習(xí)模型內(nèi)部的所有信息和參數(shù)上進行攻擊,令損失函數(shù)最大,直接計算得到對抗樣本。

黑盒攻擊則是在神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)為黑箱時,僅通過模型的輸入和輸出,逆推生成對抗樣本。下圖左圖為白盒攻擊(自攻自受),右圖為黑盒攻擊(用他山之石攻此山之玉)。

對機器學(xué)習(xí)模型的逃逸攻擊,繞過深度學(xué)習(xí)的判別并生成欺騙結(jié)果,攻擊者在原圖上構(gòu)造的修改被稱為對抗樣本。

神經(jīng)網(wǎng)絡(luò)對抗樣本生成與攻防是一個非常有(zhuang)趣(bi)且有前景的研究方向。

2018年,Ian Goodfellow 再發(fā)大招,不僅欺騙了神經(jīng)網(wǎng)絡(luò),還能欺騙人眼。

文中提出了首個可以欺騙人類的對抗樣本。下圖左圖為貓咪原圖,經(jīng)過對抗樣本干擾之后生成右圖,對于右圖,神經(jīng)網(wǎng)絡(luò)和人眼都認為是狗。

下圖中,綠色框為貓的原圖。左上角顯示了攻擊的目標深度模型數(shù)量越多,生成的圖像對人類來說越像狗。 左下角顯示了針對 10 個模型進行攻擊而生成的對抗樣本,當(dāng) eps = 8 的時候,人類受試者已經(jīng)把它認成狗了。

除此之外,人工智能還面臨模型推斷攻擊、拒絕服務(wù)攻擊、傳感器攻擊等多種信息安全挑戰(zhàn)。

人對抗樣本有多好騙?

對抗樣本會在原圖上增加肉眼很難發(fā)現(xiàn)的干擾,但依舊能看得出來和原圖的區(qū)別,下圖左圖為對抗樣本,右圖為熊貓原圖。

對抗樣本不是僅在最后預(yù)測階段產(chǎn)生誤導(dǎo),而是從特征提取過程開始就產(chǎn)生誤導(dǎo). 下圖展示了第147號神經(jīng)元分別在正常深度學(xué)習(xí)模型和對抗樣本中的關(guān)注區(qū)域。在正常模型中,第147號神經(jīng)元重點關(guān)注小鳥的頭部信息。在對抗樣本中,第147號神經(jīng)元則完全被誤導(dǎo)了,關(guān)注的區(qū)域雜亂無章。

同時也說明,對抗樣本不是根據(jù)語義生成的,它并不智能。而且,正如接下來講述的,對抗樣本對圖片預(yù)處理過程非常敏感,任何區(qū)域截圖、放大縮小、更換模型都很容易讓對抗樣本失效。

其實,如果你把那張經(jīng)過攻擊篡改之后的大熊貓圖片稍微放大或縮小,或者直接截一部分圖,然后放到其它公開的圖像識別模型上運行(比如百度識圖),識別結(jié)果依舊是大熊貓。

這意味著對抗樣本僅對指定的圖片和攻擊模型生效,對諸如區(qū)域截圖、放大縮小之類的預(yù)處理過程是非常敏感的。

也就是說,如果還想欺騙更多其它的深度學(xué)習(xí)模型,就要在訓(xùn)練生成對抗樣本時盡可能包含更多的已知深度學(xué)習(xí)模型。

NIPS 冠軍是怎么做的

2017 年,生成對抗神經(jīng)網(wǎng)絡(luò)(GAN)之父 Ian Goodfellow,牽頭組織了 NIPS 的 Adversarial Attacks and Defences(神經(jīng)網(wǎng)絡(luò)對抗攻防競賽)。

清華大學(xué)博士生董胤蓬、廖方舟、龐天宇及指導(dǎo)老師朱軍、胡曉林、李建民、蘇航組成的團隊在競賽中的全部三個項目中得到冠軍。

清華大學(xué)團隊正是采用了多種深度學(xué)習(xí)模型集合攻擊的方案,通過對 Image.Net 網(wǎng)站上的三萬張圖片進行訓(xùn)練,提出七種攻擊模型。

集合攻擊考慮了 Inception V3、ResNet、Inception ResNet V2 三種已知的深度學(xué)習(xí)模型,訓(xùn)練出的攻擊樣本具備良好的普適性和可遷移性。

下圖展示了他們使用FGSM模型進行攻擊的測試:

橫行為攻擊模型名稱,豎列為防守模型名稱,表格中的數(shù)字表示對于每1000張攻擊圖片,防守模型成功防守的圖片數(shù)目,數(shù)字越大,表示豎列模型防守越有效,數(shù)字越小,表示橫行模型進攻越有效。

紅色表示用同一個模型進行攻防(白盒攻擊)。可以看出:下面是個有序序列

白盒攻擊成功率遠遠大于黑盒成功率。如何提高黑盒攻擊的可遷移性,實現(xiàn)跨模型的黑盒攻擊,是一個重要問題。

由 Adv-Incv3 豎列看出,經(jīng)過對抗訓(xùn)練之后的防守模型非常強悍。甚至可以達到 94.1% 的防守成功率。

因此,將對抗樣本引入訓(xùn)練數(shù)據(jù)集進行對抗訓(xùn)練是有效的防守策略,相當(dāng)于士兵平時訓(xùn)練的時候就采用真實戰(zhàn)場條件,上了戰(zhàn)場自然不慫。

由 Ens4-Adv-Incv3 豎列看出,經(jīng)過多個模型集合訓(xùn)練之后的防守模型非常強悍。 正所謂“用五岳他山之石攻此山之玉”、“曾經(jīng)滄海難為水”,使用多個深度模型訓(xùn)練出的防守模型必然是集眾家之長。

防御組:圖像降噪策略

對抗訓(xùn)練(把真實戰(zhàn)場作為訓(xùn)練場):在訓(xùn)練模型的時候就加上對抗樣本(對抗訓(xùn)練)。

對抗樣本隨模型訓(xùn)練的過程在線生成。雖然很耗時,但訓(xùn)練出的模型魯棒性很強

改進的HGD降噪算法:像素層面上的去噪并不能真正去掉噪音,傳統(tǒng)的像素去噪方法全都無效。

采用基于CNN的改進HGD降噪算法,僅使用750張訓(xùn)練圖片,大大節(jié)省訓(xùn)練時間,且模型可遷移性好。

NIPS 冠軍是怎么做的

誤導(dǎo)汽車的語音指令

這個方式已經(jīng)被中國科學(xué)院大學(xué)教授陳愷實現(xiàn)了。通過對汽車音響播放的歌曲進行干擾編碼,雖然人耳聽起來仍然是原曲,實際上暗中通過微信的語音,發(fā)送了“Open the door”指令。

本文作者張子豪提出另一種思路,使用樹莓派微型電腦,發(fā)射FM調(diào)頻廣播播放干擾之后的歌曲,直接干擾汽車收音機。

陳愷表示,已經(jīng)嘗試過該方式,決定干擾成功率的關(guān)鍵還是在于過濾外界噪音干擾。

直接破解本地 AI 模型

360智能安全研究院負責(zé)人李康認為,人工智能與信息安全的下一個熱點:深度學(xué)習(xí)模型參數(shù)被竊取的風(fēng)險和數(shù)據(jù)安全。

隨著邊緣計算和智能移動終端時代的到來,在移動終端部署本地 AI 應(yīng)用越來越廣泛。從iPhone X的刷臉解鎖,到華為、高通部署手機端的 AI 芯片。

在移動終端本地運行 AI 應(yīng)用,可有效解決延遲、傳輸帶寬、用戶隱私泄露等問題,但同時也帶來本地深度學(xué)習(xí)模型的數(shù)據(jù)安全問題。

經(jīng)過簡單的逆推,就可以破解很多本地的 AI 應(yīng)用,甚至可以知道其中的 Caffe 模型的基本參數(shù)。

有些開發(fā)者會采用 AES 加密把模型封裝起來,但殊不知在 AES 密鑰也得保存在本地文件中。

有時甚至根據(jù)追蹤 AI 應(yīng)用對內(nèi)存的訪問情況,就可以判斷出這個模型的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。

所以 AI 開發(fā)者在向移動端和嵌入式設(shè)備中部署 AI 應(yīng)用時,一定要事先請教安全團隊,確保模型數(shù)據(jù)安全。

延伸閱讀

NIPS 2017 神經(jīng)網(wǎng)絡(luò)對抗攻防賽介紹:

比賽分組規(guī)則

比賽為三組選手互相進行攻防

Targed Attack 組:組委會給 5000 張原圖和每張圖對應(yīng)的目標誤導(dǎo)結(jié)果數(shù)據(jù)集,制定要求指鹿為馬

Non-ratgeted Attack 組:只要不認不出是鹿就行

Defense 組:正確識別已經(jīng)被其他參賽組對抗樣本攻擊的圖片

攻擊組:對抗樣本生成策略

集合攻擊(他山之石可以攻玉):攻擊多個已知深度學(xué)習(xí)模型的集合,而不是逐個擊破。

比方說,把ResNet、VGG、Inception三個模型視作統(tǒng)一的大模型一起攻擊,再用訓(xùn)練好的模型攻擊AlexNet,成功率就會大大提高。

可以在模型底層、預(yù)測值、損失函數(shù)三個層面進行多個模型的集合攻擊。

采用這個方法,可以大大提高對抗樣本攻擊的普適性和可遷移性。

改進的FGSM模型:多步迭代、帶目標、引入動量,大大提高對抗樣本的可遷移性。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴

原文標題:GAN一點都不魯棒?清華學(xué)霸們贏得NIPS攻防賽3項冠軍的絕招在這里!

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    神經(jīng)網(wǎng)絡(luò)教程(李亞非)

      第1章 概述  1.1 人工神經(jīng)網(wǎng)絡(luò)研究與發(fā)展  1.2 生物神經(jīng)元  1.3 人工神經(jīng)網(wǎng)絡(luò)的構(gòu)成  第2章人工神經(jīng)網(wǎng)絡(luò)基本模型  2.1 MP模型  2.2 感知器模型  2.3
    發(fā)表于 03-20 11:32

    基于Keras中建立的簡單的二分類問題的神經(jīng)網(wǎng)絡(luò)模型(根據(jù)200個數(shù)據(jù)樣本預(yù)測新的5+1個樣本)—類別預(yù)測

    Keras之ML~P:基于Keras中建立的簡單的二分類問題的神經(jīng)網(wǎng)絡(luò)模型(根據(jù)200個數(shù)據(jù)樣本預(yù)測新的5+1個樣本)——類別預(yù)測
    發(fā)表于 12-24 11:45

    卷積神經(jīng)網(wǎng)絡(luò)如何使用

    卷積神經(jīng)網(wǎng)絡(luò)(CNN)究竟是什么,鑒于神經(jīng)網(wǎng)絡(luò)在工程上經(jīng)歷了曲折的歷史,您為什么還會在意它呢? 對于這些非常中肯的問題,我們似乎可以給出相對簡明的答案。
    發(fā)表于 07-17 07:21

    【案例分享】基于BP算法的前饋神經(jīng)網(wǎng)絡(luò)

    `BP神經(jīng)網(wǎng)絡(luò)首先給出只包含一個隱層的BP神經(jīng)網(wǎng)絡(luò)模型(兩層神經(jīng)網(wǎng)絡(luò)): BP神經(jīng)網(wǎng)絡(luò)其實由兩部分組成:前饋神經(jīng)網(wǎng)絡(luò)
    發(fā)表于 07-21 04:00

    【案例分享】ART神經(jīng)網(wǎng)絡(luò)與SOM神經(jīng)網(wǎng)絡(luò)

    是一種常用的無監(jiān)督學(xué)習(xí)策略,在使用改策略時,網(wǎng)絡(luò)的輸出神經(jīng)元相互競爭,每一時刻只有一個競爭獲勝的神經(jīng)元激活。ART神經(jīng)網(wǎng)絡(luò)由比較層、識別層、識別閾值、重置模塊構(gòu)成。其中比較層負責(zé)接收輸
    發(fā)表于 07-21 04:30

    何用卷積神經(jīng)網(wǎng)絡(luò)方法去解決機器監(jiān)督學(xué)習(xí)下面的分類問題?

    人工智能下面有哪些機器學(xué)習(xí)分支?如何用卷積神經(jīng)網(wǎng)絡(luò)(CNN)方法去解決機器學(xué)習(xí)監(jiān)督學(xué)習(xí)下面的分類問題?
    發(fā)表于 06-16 08:09

    如何構(gòu)建神經(jīng)網(wǎng)絡(luò)?

    原文鏈接:http://tecdat.cn/?p=5725 神經(jīng)網(wǎng)絡(luò)是一種基于現(xiàn)有數(shù)據(jù)創(chuàng)建預(yù)測的計算系統(tǒng)。如何構(gòu)建神經(jīng)網(wǎng)絡(luò)?神經(jīng)網(wǎng)絡(luò)包括:輸入層:根據(jù)現(xiàn)有數(shù)據(jù)獲取輸入的層隱藏層:使用反向傳播優(yōu)化輸入變量權(quán)重的層,以提高模型的預(yù)測
    發(fā)表于 07-12 08:02

    基于BP神經(jīng)網(wǎng)絡(luò)的PID控制

    最近在學(xué)習(xí)電機的智能控制,上周學(xué)習(xí)了基于單神經(jīng)元的PID控制,這周研究基于BP神經(jīng)網(wǎng)絡(luò)的PID控制。神經(jīng)網(wǎng)絡(luò)具有任意非線性表達能力,可以通過對系統(tǒng)性能的學(xué)習(xí)來實現(xiàn)具有最佳組合的PID控制。利用BP
    發(fā)表于 09-07 07:43

    如何使用stm32cube.ai部署神經(jīng)網(wǎng)絡(luò)?

    何用stm32cube.ai簡化人工神經(jīng)網(wǎng)絡(luò)映射?如何使用stm32cube.ai部署神經(jīng)網(wǎng)絡(luò)?
    發(fā)表于 10-11 08:05

    卷積神經(jīng)網(wǎng)絡(luò)模型發(fā)展及應(yīng)用

    等[16- 18]進行分類。特征提取和分類器的 設(shè)計是圖片分類等任務(wù)的關(guān)鍵,對分類結(jié)果的好壞 有著最為直接的影響。卷積神經(jīng)網(wǎng)絡(luò)可以自動地從 訓(xùn)練樣本中學(xué)習(xí)特征并且分類,解決了人工特征設(shè)計 的局限性
    發(fā)表于 08-02 10:39

    神經(jīng)網(wǎng)絡(luò)在雷達對抗與反對抗中的應(yīng)用

    本文從神經(jīng)網(wǎng)絡(luò)應(yīng)用于雷達對抗與反對抗中的潛在優(yōu)勢出發(fā),論述了將其應(yīng)用于雷達信號分選和識別、自適應(yīng)信號處理、識別反輻射導(dǎo)彈、探測隱身目標和抗人為干擾等方面的廣闊
    發(fā)表于 09-09 15:52 ?39次下載

    神經(jīng)網(wǎng)絡(luò)如何識別圖片的內(nèi)容?

    神經(jīng)網(wǎng)絡(luò)展示大量的人和車的圖片,并告知其哪一張是車,哪一張是人,最終,這個神經(jīng)網(wǎng)絡(luò)就可以學(xué)會區(qū)分人和車。當(dāng)新輸入一張車或人的圖片時,它會告訴你這是一個人還是一輛汽車。
    的頭像 發(fā)表于 10-26 14:58 ?3890次閱讀
    <b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>如何識別<b class='flag-5'>圖片</b>的內(nèi)容?

    bp神經(jīng)網(wǎng)絡(luò)的原理 用BP神經(jīng)網(wǎng)絡(luò)去識別圖片上的字符

      摘 要  本文主要講述了如何用BP神經(jīng)網(wǎng)絡(luò)去識別圖片上的字符。該系統(tǒng)主要處理晶振表面字符的識別。在識別之前要對圖像進行一系列的處理,即圖像的預(yù)處理。預(yù)處理主要包含,二值化、銳化、噪聲去除、字符
    發(fā)表于 07-18 17:20 ?3次下載

    BP神經(jīng)網(wǎng)絡(luò)最少要多少份樣本

    等。然而,BP神經(jīng)網(wǎng)絡(luò)的訓(xùn)練需要大量的樣本數(shù)據(jù),需要根據(jù)問題的復(fù)雜性、數(shù)據(jù)的可用性和計算資源等因素,綜合確定樣本數(shù)量以保證網(wǎng)絡(luò)的泛化能力。 BP神經(jīng)
    的頭像 發(fā)表于 07-11 10:31 ?421次閱讀

    BP神經(jīng)網(wǎng)絡(luò)樣本的獲取方法

    的訓(xùn)練樣本是至關(guān)重要的。 數(shù)據(jù)收集 數(shù)據(jù)收集是構(gòu)建BP神經(jīng)網(wǎng)絡(luò)模型的第一步。根據(jù)研究領(lǐng)域和應(yīng)用場景的不同,數(shù)據(jù)來源可以分為以下幾種: 1.1 實驗數(shù)據(jù):通過實驗或觀察獲得的數(shù)據(jù),如生物實驗、化學(xué)實驗等。 1.2 傳感器數(shù)據(jù):通過傳感器收集的數(shù)據(jù),如溫度、濕度、壓力等。
    的頭像 發(fā)表于 07-11 10:50 ?443次閱讀