0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

探討一些可用于解釋機器學(xué)習(xí)模型的不同技術(shù)

電子工程師 ? 來源:lp ? 2019-04-04 17:30 ? 次閱讀

【導(dǎo)語】模型的可解釋性是大多數(shù)機器學(xué)習(xí)系統(tǒng)都需要的一種能力,即能向用戶解釋模型能做出這些預(yù)測的原因。在本篇文章中,作者將與大家探討一些可用于解釋機器學(xué)習(xí)模型的不同技術(shù),并且重點介紹兩種提供全局和局部解釋、且與模型本身無關(guān)可解釋性技術(shù)。這些技術(shù)可以應(yīng)用于任何機器學(xué)習(xí)算法,并通過分析機器學(xué)習(xí)模型的響應(yīng)函數(shù)來實現(xiàn)可解釋性。

前言

在選擇一個合適的機器學(xué)習(xí)模型時,通常需要我們權(quán)衡模型準(zhǔn)確性與可解釋性之間的關(guān)系:

黑盒模型 (black-box):諸如神經(jīng)網(wǎng)絡(luò)、梯度增強模型或復(fù)雜的集成模型此類的黑盒模型 (black-box model) 通常具有很高的準(zhǔn)確性。然而,這些模型的內(nèi)部工作機制卻難以理解,也無法估計每個特征對模型預(yù)測結(jié)果的重要性,更不能理解不同特征之間的相互作用關(guān)系。

白盒模型(white-box):另一方面,像線性回歸和決策樹之類的簡單模型的預(yù)測能力通常是有限的,且無法對數(shù)據(jù)集內(nèi)在的復(fù)雜性進行建模 (如特征交互)。然而,這類簡單模型通常有更好的可解釋性,內(nèi)部的工作原理也更容易解釋。

模型準(zhǔn)確性與可解釋性關(guān)系之間的權(quán)衡取決于一個重要的假設(shè):“可解釋性是模型的一個固有屬性”。通過正確的可解釋性技術(shù),任何機器學(xué)習(xí)模型內(nèi)部工作機理都能夠得以解釋,盡管這需要付出一些復(fù)雜性和計算成本的代價。

模型屬性

機器學(xué)習(xí)模型的可解釋程度通常與響應(yīng)函數(shù) (response function) 的兩個屬性相關(guān)。模型的響應(yīng)函數(shù) f(x) 定義模型的輸入 (特征x) 和輸出 (目標(biāo)函數(shù) f(x)) 之間的輸入-輸出對關(guān)系,而這主要取決于機器學(xué)習(xí)模型,該函數(shù)具有以下特征:

線性:在線性響應(yīng)函數(shù)中,特征與目標(biāo)之間呈線性關(guān)系。如果一個特征線性變化,那么期望中目標(biāo)將以相似的速率線性變化。

單調(diào)性:在單調(diào)響應(yīng)函數(shù)中,特征與目標(biāo)對于之間的關(guān)系始終在一個方向上變化 (增大或減小)。更重要的是,這種關(guān)系適用于整個特征域,且與其他的特征變量無關(guān)。

單調(diào)線性響應(yīng)函數(shù)實例 (其中輸入變量為 x,響應(yīng)變量為 y)

線性回歸模型的響應(yīng)函數(shù)就是個線性單調(diào)函數(shù),而隨機森林和神經(jīng)網(wǎng)絡(luò)的響應(yīng)函數(shù)則是高度非線性、非單調(diào)響應(yīng)函數(shù)的例子。

下圖則闡述了在需要清晰簡單的模型可解釋性時,通常首選白盒模型 (具有線性和單調(diào)函數(shù)) 的原因。圖的上半部顯示,隨著年齡的增長,購買數(shù)量會增加,模型的響應(yīng)函數(shù)在全局范圍內(nèi)具有線性和單調(diào)關(guān)系,易于解釋模型。

然而,由于白盒模型響應(yīng)函數(shù)的線性和單調(diào)約束,通常容易忽略其變化趨勢的重要部分。通過探索更復(fù)雜的機器學(xué)習(xí)模型能夠更好地擬合觀測數(shù)據(jù),而這些復(fù)雜模型的響應(yīng)函數(shù)只是在局部呈單調(diào)線性變化。因此,為了解釋模型的行為,研究模型局部變化情況是很有必要的。

模型可解釋性的范圍,如全局或局部層面,都與模型的復(fù)雜性緊密相關(guān)。線性模型在整個特征空間中將表現(xiàn)出相同的行為 (如上圖所示),因此它們具有全局可解釋性。而輸入和輸出之間的關(guān)系通常受到復(fù)雜性和局部解釋的限制 (如為什么模型在某個數(shù)據(jù)點進行某種預(yù)測?),將其默認(rèn)為全局性解釋。

對于那些更復(fù)雜的模型,模型的全局行為就更難定義了,而且還需要對其響應(yīng)函數(shù)的小區(qū)域進行局部解釋。這些小區(qū)域可能表現(xiàn)出線性和單調(diào),以便得到更準(zhǔn)確的解釋。

ML 庫 (例如 sklearn) 允許對不同分類器進行快速比較。當(dāng)數(shù)據(jù)集的大小和維度受限時,我們還可以解釋模型的預(yù)測結(jié)果。但在大多數(shù)現(xiàn)實問題中,情況就不再是如此。

接下來將為大家重點介紹兩種提供全局和局部解釋、且與模型本身無關(guān)可解釋性技術(shù)。這些技術(shù)可以應(yīng)用于任何機器學(xué)習(xí)算法,并通過分析機器學(xué)習(xí)模型的響應(yīng)函數(shù)來實現(xiàn)可解釋性。

可解釋性技術(shù)

1、代理模型 (Surrogate models)

代理模型通常是一種簡單模型,用于解釋那些復(fù)雜模型。常用的代理模型有線性模型和決策樹模型,主要是由于這些模型易于解釋。構(gòu)建代理模型,將其用于表示復(fù)雜模型 (響應(yīng)函數(shù)) 的決策過程,并作用于輸入和模型預(yù)測,而不是在輸入和目標(biāo)上訓(xùn)練。

代理模型在非線性和非單調(diào)模型之上提供了一個全局可解釋層,但它們不完全相互依賴。它的作用只要是作為模型的“全局總結(jié)”,并不能完美地表示模型底層的響應(yīng)函數(shù),也不能捕獲復(fù)雜的特征關(guān)系。以下步驟說明了如何為復(fù)雜的黑盒模型構(gòu)建代理模型:

訓(xùn)練一個黑盒模型。

在數(shù)據(jù)集上評估黑盒模型。

選擇一個可解釋的代理模型 (通常是線性模型或決策樹模型)。

在數(shù)據(jù)集上訓(xùn)練這個可解釋性模型,并預(yù)測。

確定代理模型的錯誤度量,并解釋該模型。

2、LIME

LIME 是另一種可解釋性技術(shù),它的核心思想與代理模型相同。然而,LIME 并不是通過構(gòu)建整個數(shù)據(jù)集的全局代理模型,而只是構(gòu)建部分區(qū)域預(yù)測解釋的局部代理模型 (線性模型),來解釋模型的行為。有關(guān) LIME 技術(shù)的深入解釋,可以參閱 LIME 有關(guān)的文章

文章鏈接:

https://towardsdatascience.com/understanding-model-predictions-with-lime-a582fdff3a3b

此外,LIME 方法能夠提供一種直觀的方法來解釋給定數(shù)據(jù)的模型預(yù)測結(jié)果。有關(guān)如何為復(fù)雜的黑盒模型構(gòu)建 LIME 解釋模型的步驟如下:

訓(xùn)練一個黑盒模型。

采樣局部感興趣區(qū)域的樣本點,這些樣本點可以從數(shù)據(jù)集中直接檢索,也可以人工生成。

通過鄰近的感興趣區(qū)域?qū)π聵颖具M行加權(quán),通過在數(shù)據(jù)集上使用變量來擬合得到一個加權(quán)的、可解釋的代理模型。

解釋這個局部代理模型。

結(jié)論

總的來說,你可以通過幾種不同的技術(shù)來提高機器學(xué)習(xí)模型的可解釋性。盡管,隨著相關(guān)領(lǐng)域研究的改進,這些技術(shù)也將變得越來越強大,但使用不同技術(shù)并進行比較仍然是很重要的。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴

原文標(biāo)題:機器學(xué)習(xí)的可解釋性:黑盒vs白盒(內(nèi)附開源學(xué)習(xí)書) | Deep Reading

文章出處:【微信號:rgznai100,微信公眾號:rgznai100】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    機器學(xué)習(xí)模型解釋性的結(jié)果分析

    模型的可解釋性是機器學(xué)習(xí)領(lǐng)域的個重要分支,隨著 AI 應(yīng)用范圍的不斷擴大,人們越來越不滿足于模型
    發(fā)表于 09-28 10:17 ?931次閱讀
    <b class='flag-5'>機器</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>模型</b>可<b class='flag-5'>解釋</b>性的結(jié)果分析

    分享一些最常見最實用的機器學(xué)習(xí)算法

    在這篇文章中,分享一些最常用的機器學(xué)習(xí)算法。
    的頭像 發(fā)表于 10-14 14:24 ?9072次閱讀
    分享<b class='flag-5'>一些</b>最常見最實用的<b class='flag-5'>機器</b><b class='flag-5'>學(xué)習(xí)</b>算法

    如何通過XGBoost解釋機器學(xué)習(xí)

    本文為大家介紹用XGBoost解釋機器學(xué)習(xí)。 這是個故事,關(guān)于錯誤地解釋機器
    發(fā)表于 10-12 11:48 ?1787次閱讀
    如何通過XGBoost<b class='flag-5'>解釋</b><b class='flag-5'>機器</b><b class='flag-5'>學(xué)習(xí)</b>

    介紹下labview機器視覺怎么實現(xiàn)一些零件尺寸的測量。

    本帖最后由 forgiveroc 于 2016-9-10 18:25 編輯 RT,針對入門,高手多多指教呀~。斷斷續(xù)續(xù)的學(xué)習(xí)下labview機器視覺,做了一些簡單的案例,在這
    發(fā)表于 03-12 16:36

    【下載】《機器學(xué)習(xí)》+《機器學(xué)習(xí)實戰(zhàn)》

    數(shù)據(jù)分析及可視化。通過各種實例,讀者可從中學(xué)會機器學(xué)習(xí)的核心算法,并能將其運用于一些策略性任務(wù)中,如分類、預(yù)測、推薦。另外,還可用它們來實現(xiàn)
    發(fā)表于 06-01 15:49

    軟體機器人學(xué)習(xí)問題探討

    學(xué)習(xí)探討軟體機器人結(jié)構(gòu)設(shè)計、柔性制造、運動控制、裝配和調(diào)試等內(nèi)容,使學(xué)員熟練應(yīng)用控制工程理論、自動化、材料力學(xué)、機械原理、機械設(shè)計、3D打印等基礎(chǔ)知識,培養(yǎng)和提高學(xué)員對軟體機器人目
    發(fā)表于 08-12 15:09

    什么是機器學(xué)習(xí)? 機器學(xué)習(xí)基礎(chǔ)入門

    工程師在數(shù)據(jù)收集過程中使用標(biāo)簽對數(shù)據(jù)集進行分類數(shù)據(jù)收集和標(biāo)記是個耗時的過程,但對于正確處理數(shù)據(jù)至關(guān)重要。雖然機器學(xué)習(xí)領(lǐng)域有一些創(chuàng)新,利用預(yù)先訓(xùn)練的
    發(fā)表于 06-21 11:06

    如何描述機器學(xué)習(xí)中的一些綜合能力

    當(dāng)我在閱讀機器學(xué)習(xí)相關(guān)文獻的時候, 我經(jīng)常思考這項工作是否:提高了模型的表達能力;使模型更易于訓(xùn)練; 提高了模型的泛化性能。
    的頭像 發(fā)表于 04-04 11:12 ?5558次閱讀

    機器學(xué)習(xí)一些代碼示例合集

    本文檔的主要內(nèi)容詳細(xì)介紹的是機器學(xué)習(xí)一些代碼示例合集。
    發(fā)表于 04-29 08:00 ?1次下載
    <b class='flag-5'>機器</b><b class='flag-5'>學(xué)習(xí)</b>的<b class='flag-5'>一些</b>代碼示例合集

    詳談機器學(xué)習(xí)的決策樹模型

    決策樹模型是白盒模型種,其預(yù)測結(jié)果可以由人來解釋。我們把機器學(xué)習(xí)
    的頭像 發(fā)表于 07-06 09:49 ?3549次閱讀
    詳談<b class='flag-5'>機器</b><b class='flag-5'>學(xué)習(xí)</b>的決策樹<b class='flag-5'>模型</b>

    關(guān)于機器學(xué)習(xí)模型的六大可解釋技術(shù)

    本文介紹目前常見的幾種可以提高機器學(xué)習(xí)模型的可解釋性的技術(shù)。
    的頭像 發(fā)表于 02-26 17:20 ?2142次閱讀
    關(guān)于<b class='flag-5'>機器</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>模型</b>的六大可<b class='flag-5'>解釋</b>性<b class='flag-5'>技術(shù)</b>

    機器學(xué)習(xí)模型的可解釋性算法詳解

    本文介紹目前常見的幾種可以提高機器學(xué)習(xí)模型的可解釋性的技術(shù),包括它們的相對優(yōu)點和缺點。
    的頭像 發(fā)表于 02-16 16:21 ?4609次閱讀
    <b class='flag-5'>機器</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>模型</b>的可<b class='flag-5'>解釋</b>性算法詳解

    解釋機器學(xué)習(xí)

    解釋機器學(xué)習(xí)
    發(fā)表于 06-17 14:41 ?1次下載

    可以提高機器學(xué)習(xí)模型的可解釋技術(shù)

    本文介紹目前常見的幾種可以提高機器學(xué)習(xí)模型的可解釋性的技術(shù),包括它們的相對優(yōu)點和缺點。
    的頭像 發(fā)表于 02-08 14:08 ?1170次閱讀

    機器學(xué)習(xí)技術(shù)是什么?機器學(xué)習(xí)技術(shù)在新型電力系統(tǒng)安全穩(wěn)定中的應(yīng)用

    一些能夠推斷未知數(shù)據(jù)的規(guī)則和模型。機器學(xué)習(xí)技術(shù)目前已經(jīng)廣泛應(yīng)用于許多領(lǐng)域,如圖像和語音識別、自然
    的頭像 發(fā)表于 08-17 16:30 ?1051次閱讀