0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

讓機(jī)器學(xué)習(xí)模型不再是”黑盒子“

DPVg_AI_era ? 來源:lp ? 2019-03-12 09:31 ? 次閱讀

提高機(jī)器學(xué)習(xí)模型的可解釋性和透明度,將有助于模型的除錯、引導(dǎo)未來的數(shù)據(jù)收集方向、為特征構(gòu)建和人類決策提供真正可靠的信息,最終在人與模型之間建立信任。

過去幾年來,人工智能研究人員在圖像識別、自然語言理解和棋類等領(lǐng)域取得了重大突破。但由于缺乏對復(fù)雜機(jī)器學(xué)習(xí)模型的真正理解,導(dǎo)致模型在傳播時出現(xiàn)了偏見,這種偏見在零售、面部識別和語言理解等領(lǐng)域的應(yīng)用中出現(xiàn)了多次。

說到底,機(jī)器學(xué)習(xí)模型大多數(shù)時候仍然是“黑盒子”,很多時候可以拿來用,但具體原理并不十分清楚,即缺乏足夠的“可解釋性”。

什么是模型的”可解釋性“?不同人群定義不一樣

所謂模型的可解釋性,是指人類能夠在何種程度上一致地估計、理解并遵循模型的預(yù)測,以及在模型出錯時,在何種程度上能夠成功檢測到。

可解釋性對不同的人群有著不同的含義:

對于數(shù)據(jù)科學(xué)家來說,意味著更好地理解模型,掌握模型性能好壞情況以及原因。這些信息有助于數(shù)據(jù)科學(xué)家構(gòu)建性能更強(qiáng)大的模型。

對于業(yè)務(wù)利益相關(guān)者而言,模型具備可解釋性有助于深入了解為什么人工智能系統(tǒng)做出特定決定以確保公平性,維護(hù)用戶和品牌。

對于用戶來說,這意味著要理解模型做出決策的原因,并在模型出錯時允許進(jìn)行有意義的挑戰(zhàn)。

對于專家或監(jiān)管機(jī)構(gòu)來說,它意味著審核AI系統(tǒng)并遵循決策流程,尤其是在系統(tǒng)出現(xiàn)問題時。

微軟的團(tuán)隊數(shù)據(jù)科學(xué)流程(TDSP),其中一個重要環(huán)節(jié)就是對模型的理解

機(jī)器學(xué)習(xí)模型的可解釋性可以展示模型正在學(xué)習(xí)什么內(nèi)容,而洞悉模型的內(nèi)部,要比大多數(shù)人預(yù)想的更加有用。

在過去的10年里,我采訪了許多數(shù)據(jù)科學(xué)家,其中模型可解釋性技術(shù)是我最喜歡的主題,在這一問題上,甚至可以將最優(yōu)秀的數(shù)據(jù)科學(xué)家與普通科學(xué)家區(qū)分開來。

有些人認(rèn)為機(jī)器學(xué)習(xí)模型是黑盒子,可以做出預(yù)測,但卻無法理解。但最好的數(shù)據(jù)科學(xué)家知道如何從任何模型中提取出關(guān)于真實世界的見解。對于任何給定的模型,優(yōu)秀的數(shù)據(jù)科學(xué)家可以輕松回答類似下面的問題:

模型認(rèn)為哪些特征最重要?

對于來自模型的任何預(yù)測來說,數(shù)據(jù)的每個特征會對預(yù)測結(jié)果產(chǎn)生哪些影響?

不同特征之間的哪些相互作用對模型的預(yù)測結(jié)果影響最大?

回答這些問題比許多人意識到的更為廣泛。無論你是從Kaggle學(xué)習(xí)技術(shù)還是從統(tǒng)計學(xué)習(xí)元素這樣的綜合資源中學(xué)習(xí),這些技術(shù)都將徹底改變構(gòu)建,驗證和部署機(jī)器學(xué)習(xí)模型的方式。

提高模型可解釋性有什么用?

關(guān)于模型的可解釋性技術(shù),以下是五個最重要的應(yīng)用方式:

調(diào)試

為模型特征構(gòu)建提供信息

指導(dǎo)未來的數(shù)據(jù)收集方向

為人類決策提供建議

在人與模型間建立信任

調(diào)試

世界上存在很多可靠性不高,雜亂無章、數(shù)量眾多的數(shù)據(jù)。在編寫預(yù)處理代碼時,這些數(shù)據(jù)可能會成為潛在的錯誤源頭,增加目標(biāo)泄漏的可能性,在實際數(shù)據(jù)科學(xué)項目中的某些時候出現(xiàn)錯誤可以說是一種常態(tài),而不是例外。

由于錯誤出現(xiàn)的頻率和潛在的災(zāi)難性后果,除錯是數(shù)據(jù)科學(xué)中最有價值的技能之一。了解模型發(fā)現(xiàn)的模式將幫助你確定,模型對現(xiàn)實世界的理解與你自己的觀點出現(xiàn)了不一致,而這通常是查找錯誤的第一步。

為模型的特征構(gòu)建提供信息

特征構(gòu)建通常是提高模型精度的最有效的方法。這個過程通常涉及使用原始數(shù)據(jù)或先前創(chuàng)建的特征的轉(zhuǎn)換重復(fù)創(chuàng)建新特征。

有時你可以只憑借關(guān)于底層主題的直覺來完成這個過程。但是,當(dāng)模型有100個原始特征或缺乏有關(guān)您正在處理的主題的背景知識時,就需要更多指引了。這時候,如果模型仍是黑盒子,不可解釋的,完成這一過程可能會非常困難,甚至是不可能的。

未來,隨著越來越多的數(shù)據(jù)集的原始特征數(shù)量達(dá)到成百上千的級別,這種方式無疑會變得越來越重要。

指導(dǎo)未來的數(shù)據(jù)收集方向

對于從網(wǎng)上下載的數(shù)據(jù)集,你并沒有控制能力。但是,許多利用數(shù)據(jù)科學(xué)的企業(yè)和組織都有機(jī)會擴(kuò)展其收集的數(shù)據(jù)類型。收集新類型的數(shù)據(jù)可能成本高昂,又不方便,因此只有在知道某類數(shù)據(jù)值得收集,他們才會去這樣做。

如果模型是可解釋的,就可以很好地理解當(dāng)前特征的價值,進(jìn)而更有可能推斷出哪些新型數(shù)據(jù)是最有用的,從而指導(dǎo)未來數(shù)據(jù)的收集方向。

為人類決策提供建議

有些決策行為是由模型自動完成的。比如,當(dāng)你訪問亞馬遜的網(wǎng)站時,你所看到的網(wǎng)頁內(nèi)容并不是由真人匆忙決定的。不過,確實許多重要的決定都是由人做出的。對于這些決策,觀點洞察可能比預(yù)測結(jié)果更有價值。

在人與模型間建立信任

在沒有驗證一些基本事實的情況下,許多人認(rèn)為他們無法信任模型來進(jìn)行重要決策。考慮到數(shù)據(jù)出現(xiàn)錯誤的幾率,這是一個明智的預(yù)防措施。

在實際應(yīng)用中,如果模型顯示的結(jié)果符合他們對問題的一般見解,將有助于在人與模型間建立一種信任,即使對數(shù)據(jù)科學(xué)知之甚少的人而言也是如此。

不過,在Adrian Weller的一篇有趣的論文中,提出AI透明度應(yīng)該是實現(xiàn)目標(biāo)的手段,而不是目標(biāo)本身。Weller認(rèn)為,更高的模型透明度可能產(chǎn)生對所有人不利的結(jié)果,并可能使AI被惡意者濫用。

毫無疑問,AI系統(tǒng)必須足夠安全,并且能夠防范對抗性攻擊,這樣,討論模型的可解釋性和透明度才是有積極意義的。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1787

    文章

    46060

    瀏覽量

    234977
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3032

    瀏覽量

    48351
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8306

    瀏覽量

    131841

原文標(biāo)題:告別AI模型黑盒子:可解釋性將是數(shù)據(jù)科學(xué)的下一個“超能力”

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    【「時間序列與機(jī)器學(xué)習(xí)」閱讀體驗】+ 簡單建議

    這本書以其系統(tǒng)性的框架和深入淺出的講解,為讀者繪制了一幅時間序列分析與機(jī)器學(xué)習(xí)融合應(yīng)用的宏偉藍(lán)圖。作者不僅扎實地構(gòu)建了時間序列分析的基礎(chǔ)知識,更巧妙地展示了機(jī)器學(xué)習(xí)如何在這一領(lǐng)域發(fā)揮巨
    發(fā)表于 08-12 11:21

    【《大語言模型應(yīng)用指南》閱讀體驗】+ 基礎(chǔ)知識學(xué)習(xí)

    今天來學(xué)習(xí)大語言模型在自然語言理解方面的原理以及問答回復(fù)實現(xiàn)。 主要是基于深度學(xué)習(xí)和自然語言處理技術(shù)。 大語言模型涉及以下幾個過程: 數(shù)據(jù)收集:大語言
    發(fā)表于 08-02 11:03

    【《大語言模型應(yīng)用指南》閱讀體驗】+ 俯瞰全書

    上周收到《大語言模型應(yīng)用指南》一書,非常高興,但工作項目繁忙,今天才品鑒體驗,感謝作者編寫了一部內(nèi)容豐富、理論應(yīng)用相結(jié)合、印刷精美的著作,也感謝電子發(fā)燒友論壇提供了一個我了解大語言模型機(jī)器
    發(fā)表于 07-21 13:35

    pycharm如何訓(xùn)練機(jī)器學(xué)習(xí)模型

    PyCharm是一個流行的Python集成開發(fā)環(huán)境(IDE),它提供了豐富的功能,包括代碼編輯、調(diào)試、測試等。在本文中,我們將介紹如何在PyCharm中訓(xùn)練機(jī)器學(xué)習(xí)模型。 一、安裝PyCharm
    的頭像 發(fā)表于 07-11 10:14 ?388次閱讀

    Al大模型機(jī)器

    豐富的知識儲備。它們可以涵蓋各種領(lǐng)域的知識,并能夠回答相關(guān)問題。靈活性與通用性: AI大模型機(jī)器人具有很強(qiáng)的靈活性和通用性,能夠處理各種類型的任務(wù)和問題。持續(xù)學(xué)習(xí)和改進(jìn): 這些模型可以
    發(fā)表于 07-05 08:52

    人工神經(jīng)網(wǎng)絡(luò)與傳統(tǒng)機(jī)器學(xué)習(xí)模型的區(qū)別

    人工神經(jīng)網(wǎng)絡(luò)(ANN)與傳統(tǒng)機(jī)器學(xué)習(xí)模型之間的不同,包括其原理、數(shù)據(jù)處理能力、學(xué)習(xí)方法、適用場景及未來發(fā)展趨勢等方面,以期為讀者提供一個全面的視角。
    的頭像 發(fā)表于 07-04 14:08 ?372次閱讀

    大語言模型:原理與工程實踐+初識2

    前言 深度學(xué)習(xí)機(jī)器學(xué)習(xí)的分支,而大語言模型是深度學(xué)習(xí)的分支。機(jī)器
    發(fā)表于 05-13 00:09

    如何使用TensorFlow構(gòu)建機(jī)器學(xué)習(xí)模型

    在這篇文章中,我將逐步講解如何使用 TensorFlow 創(chuàng)建一個簡單的機(jī)器學(xué)習(xí)模型。
    的頭像 發(fā)表于 01-08 09:25 ?802次閱讀
    如何使用TensorFlow構(gòu)建<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>模型</b>

    一文理解自舉電路原理

    我們從最簡單的電路開始一點一點分析,先定義一下輸入阻抗的計算過程。我們可以粗略的把負(fù)載作為一個黑盒子來對待,所謂的輸入阻抗,就是計算輸入到這個黑盒子的電壓與電流的比值,比如下圖,輸入阻抗R=Vin/Iin。
    的頭像 發(fā)表于 12-18 09:24 ?1158次閱讀
    一文理解自舉電路原理

    AI模型底層機(jī)制解析GPT與神經(jīng)網(wǎng)絡(luò)的關(guān)系

    GPT 想必大家已經(jīng)耳熟能詳,當(dāng)我們與它進(jìn)行對話時,通常只需關(guān)注自己問出的問題(輸入)以及 GPT 給出的答案(輸出),對于輸出內(nèi)容是如何產(chǎn)生的,我們一無所知,它就像一個神秘的黑盒子。?
    發(fā)表于 12-13 09:44 ?1178次閱讀
    AI<b class='flag-5'>模型</b>底層機(jī)制解析GPT與神經(jīng)網(wǎng)絡(luò)的關(guān)系

    深度學(xué)習(xí)技術(shù)在AI智能分析盒子人數(shù)統(tǒng)計中的應(yīng)用與優(yōu)勢

    在AI盒子的人數(shù)統(tǒng)計中,當(dāng)多人同時出入視野范圍時,傳統(tǒng)的算法模型很難準(zhǔn)確識別和計算人數(shù),容易導(dǎo)致重復(fù)統(tǒng)計。為解決這一難題,AI算法模型可以采用目標(biāo)檢測與追蹤相結(jié)合、深度學(xué)習(xí)技術(shù)和傳感器
    的頭像 發(fā)表于 11-29 09:07 ?410次閱讀

    什么是邊緣計算盒子(AI算法盒子)?

    高效的數(shù)據(jù)處理和實時響應(yīng)。以下是關(guān)于邊緣計算盒子的介紹:一、什么是邊緣計算盒子?邊緣計算盒子是一種智能設(shè)備,高度集成了基于計算機(jī)視覺、深度學(xué)習(xí)網(wǎng)絡(luò)的高精度AI智能算
    的頭像 發(fā)表于 10-31 14:29 ?2297次閱讀
    什么是邊緣計算<b class='flag-5'>盒子</b>(AI算法<b class='flag-5'>盒子</b>)?

    想在STM32 MCU上部署機(jī)器學(xué)習(xí)模型?這份入門教程,你一學(xué)就會~

    想在STM32 MCU上部署機(jī)器學(xué)習(xí)模型?這份入門教程,你一學(xué)就會~
    的頭像 發(fā)表于 10-18 17:45 ?3973次閱讀
    想在STM32 MCU上部署<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>模型</b>?這份入門教程,<b class='flag-5'>讓</b>你一學(xué)就會~

    機(jī)器學(xué)習(xí)模型可解釋性的結(jié)果分析

    模型的可解釋性是機(jī)器學(xué)習(xí)領(lǐng)域的一個重要分支,隨著 AI 應(yīng)用范圍的不斷擴(kuò)大,人們越來越不滿足于模型黑盒特性,與此同時,金融、自動駕駛等領(lǐng)域
    發(fā)表于 09-28 10:17 ?856次閱讀
    <b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>模型</b>可解釋性的結(jié)果分析

    單片機(jī)C語言模塊化編程資料

    功能的源代碼均在這個文件里。理想的模塊化應(yīng)該可以看成是一個黑盒子。即我們只關(guān)心模塊提供的功能,而不管模塊內(nèi)部的實現(xiàn)細(xì)節(jié)。好比我們買了一部手機(jī),我們只需要會用手機(jī)提供的功能即可,不需要知曉它是如何把短信發(fā)出去
    發(fā)表于 09-28 07:23