0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

用于解釋神經(jīng)網(wǎng)絡(luò)的方法是如何發(fā)展的?

中科院長(zhǎng)春光機(jī)所 ? 來源:新智元 ? 作者:新智元 ? 2020-12-23 10:23 ? 次閱讀

過去11年中用于解釋神經(jīng)網(wǎng)絡(luò)最新方法是如何發(fā)展的呢?

本文在 Inception 網(wǎng)絡(luò)圖像分類器上嘗試使用引導(dǎo)反向傳播進(jìn)行解釋演示。

為什么「解釋」很重要?

使用機(jī)器學(xué)習(xí)(ML)算法(尤其是現(xiàn)代深度學(xué)習(xí))進(jìn)行圖像識(shí)別的最大挑戰(zhàn)之一,是難以理解為什么一個(gè)特定的輸入圖像會(huì)產(chǎn)生它所預(yù)測(cè)的結(jié)果。

ML模型的用戶通常想了解圖像的哪些部分是預(yù)測(cè)中的重要因素。這些說明或“解釋”之所以有價(jià)值,有很多原因:

機(jī)器學(xué)習(xí)開發(fā)人員可以分析調(diào)試模型的解釋,識(shí)別偏差,并預(yù)測(cè)模型是否可能推廣到新的圖像

如果提供了為何做出特定預(yù)測(cè)的解釋,則機(jī)器學(xué)習(xí)模型的用戶可能會(huì)更信任模型

像 GDPR 這樣圍繞機(jī)器學(xué)習(xí)的規(guī)則要求一些算法決策能夠用人類的術(shù)語(yǔ)來解釋

因此,至少?gòu)?009年開始,研究人員就開發(fā)了許多不同的方法來打開深度學(xué)習(xí)的“黑匣子”,從而使基礎(chǔ)模型更容易解釋。

下面,我們?yōu)檫^去十年中最先進(jìn)的圖像解釋技術(shù)整合了視覺界面,并對(duì)每種技術(shù)進(jìn)行了簡(jiǎn)要描述。

我們使用了許多很棒的庫(kù),但是特別依賴 Gradio 來創(chuàng)建你在下面的 gif 文件和 PAIR-code 的 TensorFlow 實(shí)現(xiàn)中看到的接口。

用于所有接口的模型是Inception Net圖像分類器,可以在此jupyter筆記本和Colab上找到復(fù)制此博客文章的完整代碼。

在我們深入研究論文之前,讓我們先從一個(gè)非?;镜乃惴ㄩ_始。

七種不同的解釋方法

Leave-one-out (LOO)

Leave-one-out (LOO)是最容易理解的方法之一。如果你想了解圖像的哪個(gè)部分負(fù)責(zé)預(yù)測(cè),這可能會(huì)是你想到的第一個(gè)算法。

其思想是首先將輸入圖像分割成一組較小的區(qū)域,然后,運(yùn)行多個(gè)預(yù)測(cè),每次都屏蔽一個(gè)區(qū)域。根據(jù)每個(gè)區(qū)域的「被屏蔽」對(duì)輸出的影響程度,為每個(gè)區(qū)域分配一個(gè)重要性分?jǐn)?shù)。這些分?jǐn)?shù)是對(duì)哪個(gè)區(qū)域最負(fù)責(zé)預(yù)測(cè)的量化。

這種方法很慢,因?yàn)樗蕾囉谶\(yùn)行模型的許多迭代,但是它可以生成非常準(zhǔn)確和有用的結(jié)果。上面是杜賓狗的圖片示例。

LOO是Gradio庫(kù)中的默認(rèn)解釋技術(shù),完全不需要訪問模型的內(nèi)部——這是一個(gè)很大的優(yōu)點(diǎn)。

Vanilla Gradient Ascent [2009 and 2013]

Paper: Visualizing Higher-Layer Features of a Deep Network [2009]

Paper: Visualizing Image Classification Models and Saliency Maps [2013]

這兩篇論文的相似之處在于,它們都通過使用梯度上升來探索神經(jīng)網(wǎng)絡(luò)的內(nèi)部。換句話說,它們認(rèn)為對(duì)輸入或激活的微小更改將增加預(yù)測(cè)類別的可能性。

第一篇論文將其應(yīng)用于激活,作者報(bào)告說,「有可能找到對(duì)高級(jí)特征的良好定性解釋, 我們證明,也許是違反直覺的,但這種解釋在單位水平上是可能的,它很容易實(shí)現(xiàn),并且各種技術(shù)的結(jié)果是一致的?!?/p>

第二種方法也采用梯度上升,但是直接對(duì)輸入圖像的像素點(diǎn)進(jìn)行探測(cè),而不是激活。

作者的方法「計(jì)算特定于給定圖像和類的類顯著性圖,這樣的地圖可以使用分類ConvNets用于弱監(jiān)督的對(duì)象分割?!?/p>

Guided Back-Propogation [2014]

Paper: Striving for Simplicity: The All Convolutional Net [2014]

本文提出了一種新的完全由卷積層構(gòu)成的神經(jīng)網(wǎng)絡(luò)。由于以前的解釋方法不適用于他們的網(wǎng)絡(luò),因此他們引入了引導(dǎo)式反向傳播。

該反向傳播可在進(jìn)行標(biāo)準(zhǔn)梯度上升時(shí)過濾掉傳播時(shí)產(chǎn)生的負(fù)激活。作者稱,他們的方法「可以應(yīng)用于更廣泛的網(wǎng)絡(luò)結(jié)構(gòu)?!?/p>

接下來是梯度加權(quán)類激活映射(gradient-weighted class activation mapping,Grad-CAM) 。它利用「任何目標(biāo)概念的梯度,流入最后的卷積層,生成一個(gè)粗糙的定位映射,突出圖像中的重要區(qū)域,以預(yù)測(cè)概念。」

該方法的主要優(yōu)點(diǎn)是進(jìn)一步推廣了可以解釋的神經(jīng)網(wǎng)絡(luò)類(如分類網(wǎng)絡(luò)、字幕和可視化問答(VQA)模型) ,以及一個(gè)很好的后處理步驟,圍繞圖像中的關(guān)鍵對(duì)象對(duì)解釋進(jìn)行集中和定位。

像前面的論文一樣,此方法從計(jì)算類評(píng)分函數(shù)相對(duì)于輸入圖像的梯度開始。

但是,SmoothGrad通過在輸入圖像中添加噪聲,然后針對(duì)圖像的這些擾動(dòng)版本中的每一個(gè)來計(jì)算梯度,從而在視覺上銳化這些基于梯度的靈敏度圖。將靈敏度圖平均在一起可以得到更清晰的結(jié)果。

Integrated Gradients [2017]

Paper: Axiomatic Attribution for Deep Networks [2017]

不同于以往的論文,本文的作者從解釋的理論基礎(chǔ)入手。它們「確定了歸因方法應(yīng)該滿足的兩個(gè)基本公理——敏感性和實(shí)現(xiàn)不變性」。

他們用這些原理來指導(dǎo)設(shè)計(jì)一種新的歸屬方法(稱為綜合梯度),該方法可以產(chǎn)生高質(zhì)量的解釋,同時(shí)仍然只需要訪問模型的梯度; 但是它添加了一個(gè)「基線」超參數(shù),這可能影響結(jié)果的質(zhì)量。

Blur Integrated Gradients [2020]

Paper: Attribution in Scale and Space [2020]

論文研究了一個(gè)最新技術(shù)---- 這種方法被提出來用于解決具體的問題,包括消除「基線」參數(shù),移除某些在解釋中傾向于出現(xiàn)的視覺偽影。

此外,它還「在尺度/頻率維度上產(chǎn)生分?jǐn)?shù)」,本質(zhì)上提供了圖像中重要物體的尺度感。

下面這張圖比較了所有這些方法:

原文標(biāo)題:圖像識(shí)別的可視化解釋史

文章出處:【微信公眾號(hào):中科院長(zhǎng)春光機(jī)所】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

責(zé)任編輯:haq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:圖像識(shí)別的可視化解釋史

文章出處:【微信號(hào):cas-ciomp,微信公眾號(hào):中科院長(zhǎng)春光機(jī)所】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    怎么對(duì)神經(jīng)網(wǎng)絡(luò)重新訓(xùn)練

    重新訓(xùn)練神經(jīng)網(wǎng)絡(luò)是一個(gè)復(fù)雜的過程,涉及到多個(gè)步驟和考慮因素。 引言 神經(jīng)網(wǎng)絡(luò)是一種強(qiáng)大的機(jī)器學(xué)習(xí)模型,廣泛應(yīng)用于圖像識(shí)別、自然語(yǔ)言處理、語(yǔ)音識(shí)別等領(lǐng)域。然而,隨著時(shí)間的推移,數(shù)據(jù)分布可能會(huì)
    的頭像 發(fā)表于 07-11 10:25 ?312次閱讀

    遞歸神經(jīng)網(wǎng)絡(luò)的實(shí)現(xiàn)方法

    (Recurrent Neural Network,通常也簡(jiǎn)稱為RNN,但在此處為區(qū)分,我們將循環(huán)神經(jīng)網(wǎng)絡(luò)稱為Recurrent RNN)不同,遞歸神經(jīng)網(wǎng)絡(luò)更側(cè)重于處理樹狀或圖結(jié)構(gòu)的數(shù)據(jù),如句法分析樹、自然語(yǔ)言的語(yǔ)法結(jié)構(gòu)等。以下將從遞歸
    的頭像 發(fā)表于 07-10 17:02 ?197次閱讀

    BP神經(jīng)網(wǎng)絡(luò)和人工神經(jīng)網(wǎng)絡(luò)的區(qū)別

    BP神經(jīng)網(wǎng)絡(luò)和人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Networks,簡(jiǎn)稱ANNs)之間的關(guān)系與區(qū)別,是神經(jīng)網(wǎng)絡(luò)領(lǐng)域中一個(gè)基礎(chǔ)且重要的話題。本文將從定義、結(jié)構(gòu)、算法、應(yīng)用及未來發(fā)展
    的頭像 發(fā)表于 07-10 15:20 ?388次閱讀

    神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)模型的構(gòu)建方法

    神經(jīng)網(wǎng)絡(luò)模型作為一種強(qiáng)大的預(yù)測(cè)工具,廣泛應(yīng)用于各種領(lǐng)域,如金融、醫(yī)療、交通等。本文將詳細(xì)介紹神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)模型的構(gòu)建方法,包括模型設(shè)計(jì)、數(shù)據(jù)集準(zhǔn)備、模型訓(xùn)練、驗(yàn)證與評(píng)估等步驟,并附以代碼
    的頭像 發(fā)表于 07-05 17:41 ?391次閱讀

    rnn是遞歸神經(jīng)網(wǎng)絡(luò)還是循環(huán)神經(jīng)網(wǎng)絡(luò)

    RNN(Recurrent Neural Network)是循環(huán)神經(jīng)網(wǎng)絡(luò),而非遞歸神經(jīng)網(wǎng)絡(luò)。循環(huán)神經(jīng)網(wǎng)絡(luò)是一種具有時(shí)間序列特性的神經(jīng)網(wǎng)絡(luò),能夠處理序列數(shù)據(jù),具有記憶功能。以下是關(guān)于循環(huán)
    的頭像 發(fā)表于 07-05 09:52 ?385次閱讀

    遞歸神經(jīng)網(wǎng)絡(luò)是循環(huán)神經(jīng)網(wǎng)絡(luò)

    遞歸神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,簡(jiǎn)稱RNN)和循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,簡(jiǎn)稱RNN)實(shí)際上是同一個(gè)概念,只是不同的翻譯方式
    的頭像 發(fā)表于 07-04 14:54 ?449次閱讀

    深度神經(jīng)網(wǎng)絡(luò)的設(shè)計(jì)方法

    結(jié)構(gòu)的構(gòu)建,還包括激活函數(shù)的選擇、優(yōu)化算法的應(yīng)用、正則化技術(shù)的引入等多個(gè)方面。本文將從網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計(jì)、關(guān)鍵組件選擇、優(yōu)化與正則化策略、以及未來發(fā)展趨勢(shì)四個(gè)方面詳細(xì)探討深度神經(jīng)網(wǎng)絡(luò)的設(shè)計(jì)方法
    的頭像 發(fā)表于 07-04 13:13 ?250次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)與循環(huán)神經(jīng)網(wǎng)絡(luò)的區(qū)別

    網(wǎng)絡(luò)結(jié)構(gòu),分別適用于不同的應(yīng)用場(chǎng)景。本文將從基本概念、結(jié)構(gòu)組成、工作原理及應(yīng)用領(lǐng)域等方面對(duì)這兩種神經(jīng)網(wǎng)絡(luò)進(jìn)行深入解讀。
    的頭像 發(fā)表于 07-03 16:12 ?978次閱讀

    bp神經(jīng)網(wǎng)絡(luò)是深度神經(jīng)網(wǎng)絡(luò)

    Network)有相似之處,但它們之間還是存在一些關(guān)鍵的區(qū)別。 一、引言 神經(jīng)網(wǎng)絡(luò)是一種模擬人腦神經(jīng)元結(jié)構(gòu)的計(jì)算模型,它由大量的神經(jīng)元(或稱為節(jié)點(diǎn))組成,這些神經(jīng)元通過權(quán)重連接在一起
    的頭像 發(fā)表于 07-03 10:14 ?378次閱讀

    bp神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)區(qū)別是什么

    BP神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Network)和卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,簡(jiǎn)稱CNN)是兩種不同類型的人工神經(jīng)網(wǎng)絡(luò),它們?cè)?/div>
    的頭像 發(fā)表于 07-03 10:12 ?527次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)分類方法有哪些

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)是一種深度學(xué)習(xí)模型,廣泛應(yīng)用于圖像分類、目標(biāo)檢測(cè)、語(yǔ)義分割等計(jì)算機(jī)視覺任務(wù)。本文將詳細(xì)介紹卷積神經(jīng)網(wǎng)絡(luò)的分類
    的頭像 發(fā)表于 07-03 09:40 ?265次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)和bp神經(jīng)網(wǎng)絡(luò)的區(qū)別

    化能力。隨著深度學(xué)習(xí)技術(shù)的不斷發(fā)展,神經(jīng)網(wǎng)絡(luò)已經(jīng)成為人工智能領(lǐng)域的重要技術(shù)之一。卷積神經(jīng)網(wǎng)絡(luò)和BP神經(jīng)
    的頭像 發(fā)表于 07-02 14:24 ?1030次閱讀

    神經(jīng)網(wǎng)絡(luò)在數(shù)學(xué)建模中的應(yīng)用

    數(shù)學(xué)建模是一種利用數(shù)學(xué)方法和工具來描述和分析現(xiàn)實(shí)世界問題的過程。神經(jīng)網(wǎng)絡(luò)是一種模擬人腦神經(jīng)元結(jié)構(gòu)和功能的計(jì)算模型,可以用于解決各種復(fù)雜問題。在數(shù)學(xué)建模中,
    的頭像 發(fā)表于 07-02 11:29 ?539次閱讀

    基于神經(jīng)網(wǎng)絡(luò)算法的模型構(gòu)建方法

    神經(jīng)網(wǎng)絡(luò)是一種強(qiáng)大的機(jī)器學(xué)習(xí)算法,廣泛應(yīng)用于各種領(lǐng)域,如圖像識(shí)別、自然語(yǔ)言處理、語(yǔ)音識(shí)別等。本文詳細(xì)介紹了基于神經(jīng)網(wǎng)絡(luò)算法的模型構(gòu)建方法,包括數(shù)據(jù)預(yù)處理、
    的頭像 發(fā)表于 07-02 11:21 ?300次閱讀

    神經(jīng)網(wǎng)絡(luò)架構(gòu)有哪些

    神經(jīng)網(wǎng)絡(luò)架構(gòu)是機(jī)器學(xué)習(xí)領(lǐng)域中的核心組成部分,它們模仿了生物神經(jīng)網(wǎng)絡(luò)的運(yùn)作方式,通過復(fù)雜的網(wǎng)絡(luò)結(jié)構(gòu)實(shí)現(xiàn)信息的處理、存儲(chǔ)和傳遞。隨著深度學(xué)習(xí)技術(shù)的不斷發(fā)展,各種
    的頭像 發(fā)表于 07-01 14:16 ?346次閱讀