0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

為什么要打開神經(jīng)網(wǎng)絡(luò)“黑匣子”?

人工智能與大數(shù)據(jù)技術(shù) ? 來(lái)源:AI新媒體量子位 ? 作者:AI新媒體量子位 ? 2020-10-23 10:33 ? 次閱讀

本文經(jīng)AI新媒體量子位(ID:QbitAI)授權(quán)轉(zhuǎn)載,轉(zhuǎn)載請(qǐng)聯(lián)系出處

蕭簫 發(fā)自 凹非寺

神經(jīng)網(wǎng)絡(luò)就像“煉丹爐”一樣,投喂大量數(shù)據(jù),或許能獲得神奇的效果。

“煉丹”成功后,神經(jīng)網(wǎng)絡(luò)也能對(duì)沒(méi)見(jiàn)過(guò)的數(shù)據(jù)進(jìn)行預(yù)測(cè)了~

然而,這種情況下,神經(jīng)網(wǎng)絡(luò)其實(shí)成了“黑匣子”——具有一定的功能,但看不見(jiàn)是怎么起作用的。

如果只做簡(jiǎn)單的圖像分類,其實(shí)還好;但如果用在醫(yī)學(xué)方向,對(duì)疾病進(jìn)行預(yù)測(cè),那么神經(jīng)網(wǎng)絡(luò)下的“判斷”就不可輕信。

如果能了解它是怎么工作的,就更好了。

出于這種考慮,來(lái)自牛津大學(xué)的博士生Oana-Maria Camburu撰寫了畢業(yè)論文《解釋神經(jīng)網(wǎng)絡(luò)(Explaining Deep Neural Networks)》。

在這篇論文中,她將這些“黑匣子”一個(gè)個(gè)打開,對(duì)神經(jīng)網(wǎng)絡(luò)原理進(jìn)行了詳細(xì)的解釋。

為什么要打開神經(jīng)網(wǎng)絡(luò)“黑匣子”?

事實(shí)上,神經(jīng)網(wǎng)絡(luò)之所以起作用,最直觀的原因就是,它由大量非線性函數(shù)組成。

這些非線性函數(shù),使得網(wǎng)絡(luò)可以學(xué)習(xí)原始數(shù)據(jù)中各種抽象級(jí)特征。

然而,也正是因?yàn)樯窠?jīng)網(wǎng)絡(luò)中的這些非線性函數(shù),使得人類往往難以理解,它們是如何起作用的。

這就導(dǎo)致神經(jīng)網(wǎng)絡(luò)在疾病預(yù)測(cè)、信用額度、刑法等方向上“不太受歡迎”。

醫(yī)生和法律相關(guān)的研究者往往更樂(lè)意采用可解釋模型,例如線性回歸、決策樹,因?yàn)樯窠?jīng)網(wǎng)絡(luò)在疾病預(yù)測(cè)中的確出過(guò)問(wèn)題:

人們利用神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)肺炎患者的病情發(fā)展,其中一項(xiàng)患者特征為是否有哮喘病史。

神經(jīng)網(wǎng)絡(luò)經(jīng)過(guò)訓(xùn)練后預(yù)測(cè),有哮喘病史的患者死于肺炎的可能性較低。

但其實(shí)結(jié)果恰好相反,哮喘本身會(huì)給肺炎帶來(lái)雪上加霜的效果。

之所以數(shù)據(jù)表明哮喘患者較少死于肺炎,往往是因?yàn)橄鼙患霸绨l(fā)現(xiàn),所以患者得肺炎后能被及早治療。

如果這種神經(jīng)網(wǎng)絡(luò)被應(yīng)用于實(shí)踐中,將會(huì)帶來(lái)非常危險(xiǎn)的結(jié)果。

此外,即使是神經(jīng)網(wǎng)絡(luò),也會(huì)對(duì)男女性別產(chǎn)生刻板印象、產(chǎn)生種族偏見(jiàn)。

例如,調(diào)查表明,有些語(yǔ)料庫(kù)和模型,在預(yù)測(cè)再犯時(shí),會(huì)更“偏愛(ài)”男性。

除了錯(cuò)誤的預(yù)測(cè)和種族、性別歧視以外,神經(jīng)網(wǎng)絡(luò)還很脆弱。

無(wú)論是對(duì)圖像進(jìn)行小改動(dòng)欺騙分類算法、還是用語(yǔ)音識(shí)別瞞過(guò)NLP模型,神經(jīng)網(wǎng)絡(luò)被“爆雷”的情況也不少。

為了讓神經(jīng)網(wǎng)絡(luò)應(yīng)用于更多的方向,也為了讓我們更好地學(xué)習(xí)它的原理,作者從兩個(gè)方向?qū)ι窠?jīng)網(wǎng)絡(luò)進(jìn)行了解釋。

2種方法解釋神經(jīng)網(wǎng)絡(luò)

“事后再解釋”

第一種方法,稱之為基于特征的解釋方法,又叫“事后再解釋”——因?yàn)檫@種方法,是在神經(jīng)網(wǎng)絡(luò)訓(xùn)練好后,才對(duì)其輸入特征進(jìn)行解釋的。

這種方法針對(duì)文本的詞(token)、或是針對(duì)圖像的超像素(super pixels),進(jìn)行“事后”解釋。

目前這種方法應(yīng)用較為普遍,不容易出現(xiàn)解釋偏見(jiàn),但需要驗(yàn)證解釋方法的真實(shí)性。

這里的根本原理,是研究外部解釋方法給出的解釋、與模型本身生成的自然語(yǔ)言解釋之間,是否存在相關(guān)性,而相關(guān)性具體又是什么。

在論文中,作者引入了一種新的驗(yàn)證方法,來(lái)判斷解釋方法的真實(shí)性。

讓神經(jīng)網(wǎng)絡(luò)自己解釋

那么,如果能讓神經(jīng)網(wǎng)絡(luò)一邊訓(xùn)練、一邊“解釋自己”呢?

這是論文提到的第二種方法,即在模型中植入一個(gè)生成預(yù)測(cè)解釋的模塊,對(duì)預(yù)測(cè)的結(jié)果進(jìn)行解釋。

至于神經(jīng)網(wǎng)絡(luò)對(duì)自己的解釋是否正確,還需要人為進(jìn)行判斷。

在這里面,作者同樣引入了一種判斷方法,對(duì)模型自己生成的解釋進(jìn)行判斷,從而得出神經(jīng)網(wǎng)絡(luò)解釋的結(jié)果。

對(duì)神經(jīng)網(wǎng)絡(luò)詳細(xì)結(jié)構(gòu)、具體解釋方法感興趣的小伙伴,可以戳下方論文地址查看~

作者介紹

Oana-Maria Camburu,來(lái)自羅馬尼亞,目前是牛津大學(xué)的博士生,主修機(jī)器學(xué)習(xí)、人工智能等方向。

高中時(shí)期,Oana-Maria Camburu曾獲IMO(國(guó)際奧數(shù)競(jìng)賽)銀牌。她曾經(jīng)在馬普所、谷歌實(shí)習(xí),讀博期間,論文被ACL、EMNLP、IJCNLP等頂會(huì)收錄。

原文標(biāo)題:神經(jīng)網(wǎng)絡(luò)“煉丹爐”內(nèi)部構(gòu)造長(zhǎng)啥樣?牛津大學(xué)博士小姐姐用論文解讀

文章出處:【微信公眾號(hào):人工智能與大數(shù)據(jù)技術(shù)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

責(zé)任編輯:haq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:神經(jīng)網(wǎng)絡(luò)“煉丹爐”內(nèi)部構(gòu)造長(zhǎng)啥樣?牛津大學(xué)博士小姐姐用論文解讀

文章出處:【微信號(hào):TheBigData1024,微信公眾號(hào):人工智能與大數(shù)據(jù)技術(shù)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    BP神經(jīng)網(wǎng)絡(luò)最少多少份樣本

    BP神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Network)是一種多層前饋神經(jīng)網(wǎng)絡(luò),通過(guò)反向傳播算法進(jìn)行訓(xùn)練。BP神經(jīng)網(wǎng)絡(luò)在許多領(lǐng)域都有廣泛的應(yīng)用,如圖像識(shí)別、語(yǔ)音識(shí)別、自然語(yǔ)言處理
    的頭像 發(fā)表于 07-11 10:31 ?425次閱讀

    BP神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)的關(guān)系

    BP神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Network)和卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,簡(jiǎn)稱CNN)是兩種在人工智能和機(jī)器學(xué)習(xí)領(lǐng)域
    的頭像 發(fā)表于 07-10 15:24 ?1063次閱讀

    BP神經(jīng)網(wǎng)絡(luò)和人工神經(jīng)網(wǎng)絡(luò)的區(qū)別

    BP神經(jīng)網(wǎng)絡(luò)和人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Networks,簡(jiǎn)稱ANNs)之間的關(guān)系與區(qū)別,是神經(jīng)網(wǎng)絡(luò)領(lǐng)域中一個(gè)基礎(chǔ)且重要的話題。本文將從定義、結(jié)構(gòu)、算法、應(yīng)用及未來(lái)發(fā)展等多個(gè)方面,詳細(xì)闡述BP
    的頭像 發(fā)表于 07-10 15:20 ?720次閱讀

    rnn是遞歸神經(jīng)網(wǎng)絡(luò)還是循環(huán)神經(jīng)網(wǎng)絡(luò)

    RNN(Recurrent Neural Network)是循環(huán)神經(jīng)網(wǎng)絡(luò),而非遞歸神經(jīng)網(wǎng)絡(luò)。循環(huán)神經(jīng)網(wǎng)絡(luò)是一種具有時(shí)間序列特性的神經(jīng)網(wǎng)絡(luò),能夠處理序列數(shù)據(jù),具有記憶功能。以下是關(guān)于循環(huán)
    的頭像 發(fā)表于 07-05 09:52 ?463次閱讀

    遞歸神經(jīng)網(wǎng)絡(luò)是循環(huán)神經(jīng)網(wǎng)絡(luò)

    遞歸神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,簡(jiǎn)稱RNN)和循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,簡(jiǎn)稱RNN)實(shí)際上是同一個(gè)概念,只是不同的翻譯方式
    的頭像 發(fā)表于 07-04 14:54 ?596次閱讀

    循環(huán)神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)的區(qū)別

    循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)和卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)是深度學(xué)習(xí)領(lǐng)域中兩種非常重要的神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 07-04 14:24 ?1013次閱讀

    深度神經(jīng)網(wǎng)絡(luò)與基本神經(jīng)網(wǎng)絡(luò)的區(qū)別

    在探討深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Networks, DNNs)與基本神經(jīng)網(wǎng)絡(luò)(通常指?jìng)鹘y(tǒng)神經(jīng)網(wǎng)絡(luò)或前向神經(jīng)網(wǎng)絡(luò))的區(qū)別時(shí),我們需要從多個(gè)維度進(jìn)行深入分析。這些維度包括
    的頭像 發(fā)表于 07-04 13:20 ?572次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)與循環(huán)神經(jīng)網(wǎng)絡(luò)的區(qū)別

    在深度學(xué)習(xí)領(lǐng)域,卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks, CNN)和循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Networks, RNN)是兩種極其重要
    的頭像 發(fā)表于 07-03 16:12 ?2210次閱讀

    反向傳播神經(jīng)網(wǎng)絡(luò)和bp神經(jīng)網(wǎng)絡(luò)的區(qū)別

    反向傳播神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Network,簡(jiǎn)稱BP神經(jīng)網(wǎng)絡(luò))是一種多層前饋神經(jīng)網(wǎng)絡(luò),它通過(guò)反向傳播算法來(lái)調(diào)整網(wǎng)絡(luò)中的權(quán)重和偏置,以達(dá)到最小化誤差的
    的頭像 發(fā)表于 07-03 11:00 ?603次閱讀

    bp神經(jīng)網(wǎng)絡(luò)是深度神經(jīng)網(wǎng)絡(luò)

    BP神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Network)是一種常見(jiàn)的前饋神經(jīng)網(wǎng)絡(luò),它使用反向傳播算法來(lái)訓(xùn)練網(wǎng)絡(luò)。雖然BP神經(jīng)網(wǎng)絡(luò)在某些方面與深度
    的頭像 發(fā)表于 07-03 10:14 ?596次閱讀

    bp神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)區(qū)別是什么

    BP神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Network)和卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,簡(jiǎn)稱CNN)是兩種不同類型的人工神經(jīng)網(wǎng)絡(luò),它們?cè)?/div>
    的頭像 發(fā)表于 07-03 10:12 ?883次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)和bp神經(jīng)網(wǎng)絡(luò)的區(qū)別

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,簡(jiǎn)稱CNN)和BP神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Networks,簡(jiǎn)稱BPNN)是兩種
    的頭像 發(fā)表于 07-02 14:24 ?2337次閱讀

    神經(jīng)網(wǎng)絡(luò)架構(gòu)有哪些

    神經(jīng)網(wǎng)絡(luò)架構(gòu)是機(jī)器學(xué)習(xí)領(lǐng)域中的核心組成部分,它們模仿了生物神經(jīng)網(wǎng)絡(luò)的運(yùn)作方式,通過(guò)復(fù)雜的網(wǎng)絡(luò)結(jié)構(gòu)實(shí)現(xiàn)信息的處理、存儲(chǔ)和傳遞。隨著深度學(xué)習(xí)技術(shù)的不斷發(fā)展,各種神經(jīng)網(wǎng)絡(luò)架構(gòu)被提出并廣泛應(yīng)用
    的頭像 發(fā)表于 07-01 14:16 ?556次閱讀

    梯云物聯(lián):什么是電梯黑匣子?具有哪些功能特點(diǎn)?

    電梯黑匣子,正式名稱為電梯運(yùn)行數(shù)據(jù)記錄器,是一種利用當(dāng)今最先進(jìn)的物聯(lián)網(wǎng)技術(shù)建設(shè)的系統(tǒng),用于電梯系統(tǒng)中的數(shù)據(jù)記錄。它通過(guò)安裝物聯(lián)網(wǎng)實(shí)時(shí)監(jiān)測(cè)設(shè)備,可以實(shí)時(shí)采集電梯運(yùn)行的各類參數(shù),對(duì)電梯進(jìn)行全天候的數(shù)據(jù)監(jiān)控,并對(duì)數(shù)據(jù)進(jìn)行長(zhǎng)時(shí)間的存儲(chǔ)。這些參數(shù)包括但不限于電梯的速度、位置、開關(guān)門狀態(tài)、載重量等。
    的頭像 發(fā)表于 04-14 17:53 ?718次閱讀
    梯云物聯(lián):什么是電梯<b class='flag-5'>黑匣子</b>?具有哪些功能特點(diǎn)?

    深入剖析飛機(jī)黑匣子內(nèi)部PCB與芯片的秘密

    上為FDR,下為CVR Flight Data Recorder(FDR),中文一般叫飛行數(shù)據(jù)記錄器,主要是記錄飛機(jī)飛行過(guò)程中各項(xiàng)指標(biāo)參數(shù)數(shù)據(jù)的設(shè)備。一般說(shuō)黑匣子大部分都是指的FDR,是空難調(diào)查中最重要的直接證據(jù)。
    發(fā)表于 02-28 14:55 ?595次閱讀
    深入剖析飛機(jī)<b class='flag-5'>黑匣子</b>內(nèi)部PCB與芯片的秘密