電子發(fā)燒友App

硬聲App

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

電子發(fā)燒友網(wǎng)>人工智能>什么是“可解釋的”? 可解釋性AI不能解釋什么

什么是“可解釋的”? 可解釋性AI不能解釋什么

收藏

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

評(píng)論

查看更多

相關(guān)推薦

機(jī)器學(xué)習(xí)模型可解釋性的結(jié)果分析

模型的可解釋性是機(jī)器學(xué)習(xí)領(lǐng)域的一個(gè)重要分支,隨著 AI 應(yīng)用范圍的不斷擴(kuò)大,人們?cè)絹碓讲粷M足于模型的黑盒特性,與此同時(shí),金融、自動(dòng)駕駛等領(lǐng)域的法律法規(guī)也對(duì)模型的可解釋性提出了更高的要求,在可解釋
2023-09-28 10:17:15437

AI模型的演變與可解釋性

人工智能正在改變幾乎所有行業(yè)和應(yīng)用領(lǐng)域的工程。隨之而來的是對(duì)高 AI 模型準(zhǔn)確性的需求。事實(shí)上,AI 模型在取代傳統(tǒng)方法時(shí)往往更準(zhǔn)確,但這有時(shí)也會(huì)付出代價(jià):復(fù)雜的 AI 模型是如何做出決策的;作為工程師,我們?nèi)绾悟?yàn)證結(jié)果是否如預(yù)期那樣有效?
2022-09-01 13:06:051629

1.1 快速安裝 Python 解釋

1.1【環(huán)境】快速安裝 Python 解釋器Python 是一門解釋性腳本語言,因此要想讓你編寫的代碼得以運(yùn)行,需要先安裝 CPython 解釋器。根據(jù)你電腦的系統(tǒng)以及位數(shù)不同,安裝步驟也有所差異
2022-02-16 15:15:37

可解釋的機(jī)器學(xué)習(xí)——打開機(jī)器學(xué)習(xí)黑匣子

【資源下載】《可解釋的機(jī)器學(xué)習(xí)》,打開機(jī)器學(xué)習(xí)黑匣子
2020-05-20 14:16:57

一種從零搭建汽車知識(shí)的語義網(wǎng)絡(luò)及圖譜思路

語義網(wǎng)絡(luò)。圖譜構(gòu)建中會(huì)面臨較大的挑戰(zhàn),但構(gòu)建之后,可在數(shù)據(jù)分析、推薦計(jì)算、可解釋性等多個(gè)場(chǎng)景中展現(xiàn)出豐富的應(yīng)用價(jià)值?! ∑渲校瑯?gòu)建挑戰(zhàn)包括:  Schema 難定義。目前尚無統(tǒng)一成熟的本體構(gòu)建流程,且特定
2022-11-22 15:37:08

中斷向量表里全局中斷是什么意思,能解釋下嗎

中斷向量表里全局中斷是什么意思,能解釋下嗎
2017-04-07 21:36:27

怎么用labview進(jìn)行字符串的截取,能解釋些嗎

怎么用labview進(jìn)行字符串的截取,能解釋些嗎,希望您能給個(gè)程序圖,謝謝
2013-08-27 12:09:12

有大佬能解釋一下這兩個(gè)電路嗎

有大佬能解釋那個(gè)DAC0832為什么將Iout1和Iout2和反饋電阻接在一起后接RC網(wǎng)絡(luò),還有能解釋一下那個(gè)LM358的接法嗎以及電位器和電阻的取值方法?水平較低還請(qǐng)見諒
2019-05-24 03:42:07

請(qǐng)問哪位大佬能解釋信號(hào)處理這個(gè)圖

哪位大佬能解釋一下這個(gè)圖
2019-05-05 09:01:30

請(qǐng)問哪位大神能解釋下事件標(biāo)志組的用法?

哪位大神能解釋下事件標(biāo)志組的用法?有例子解釋最好!之前在網(wǎng)上找資料特少,自己也看不太懂!
2018-07-10 15:00:11

請(qǐng)問誰能幫忙解釋下游動(dòng)方位角?

能解釋下游動(dòng)方位角,麻煩能不能解釋
2019-07-29 04:36:00

能解釋下掃描筆的筆頭工作原理?????

能解釋下掃描筆的筆頭工作原理?????能不能用ht32單片機(jī)實(shí)現(xiàn)采集圖像信息的功能???
2014-12-22 20:17:35

能解釋下掃描筆的筆頭工作原理?????

能解釋下掃描筆的筆頭工作原理?????能不能用ht32單片機(jī)實(shí)現(xiàn)采集圖像信息的功能???
2014-12-22 20:20:43

能解釋下這圖的原理

能解釋下這圖的原理
2017-06-20 22:33:47

這個(gè)電路各點(diǎn)電壓為什么是這個(gè)狀態(tài),能解釋下嗎

請(qǐng)問大家,迷惑好久了,這個(gè)電路各點(diǎn)電壓為什么是這個(gè)狀態(tài),能解釋下嗎,多謝了。為什么不是Q5柵極拉低導(dǎo)通而是Q3柵極拉低導(dǎo)通呢?
2019-09-18 15:56:24

一種基于解釋的知識(shí)庫綜合

從知識(shí)庫的解釋出發(fā),對(duì)概念和概念間關(guān)系的解釋進(jìn)行了分析,定義了知識(shí)庫系統(tǒng)的最小概念集合,設(shè)計(jì)了生成最小概念集合的方法,提出了基于解釋的知識(shí)庫綜合算法,討論了該
2009-05-07 20:44:4816

電位器型號(hào)解釋

電位器型號(hào)解釋
2009-11-16 14:48:3523

充電的名詞解釋

充電的名詞解釋 1)充電率(C-rate) C是Capacity的第一個(gè)
2009-11-10 13:57:282312

補(bǔ)碼解釋及運(yùn)算

補(bǔ)碼解釋及運(yùn)算
2010-06-30 10:36:556311

LED專業(yè)術(shù)語解釋

LED專業(yè)術(shù)語解釋VF、IV、WL、IR 解釋及光通量換算關(guān)系,LED的Vf值是什么意思?它的大小對(duì)LED有什么影響?
2012-01-06 15:34:044792

sprintf函數(shù)詳細(xì)解釋

sprintf函數(shù)詳細(xì)解釋.
2012-04-16 14:18:4759

java是什么?java概念解釋

電子發(fā)燒友網(wǎng)站提供《java是什么?java概念解釋.pdf》資料免費(fèi)下載
2017-04-17 21:35:000

異構(gòu)信息網(wǎng)絡(luò)構(gòu)建的推薦系統(tǒng)新算法研究

1) 非常完美地將各種side information融入到一個(gè)統(tǒng)一的模型; 2)利用meta-path,可以設(shè)計(jì)出各種各樣的推薦策略,除了推薦準(zhǔn)確性提升之外,還能提供「可解釋性」。
2017-10-10 11:47:092645

uboot移植詳細(xì)解釋

uboot移植詳細(xì)解釋
2017-10-26 10:08:0828

斯坦福探索深度神經(jīng)網(wǎng)絡(luò)可解釋性 決策樹是關(guān)鍵

深度學(xué)習(xí)的熱潮還在不斷涌動(dòng),神經(jīng)網(wǎng)絡(luò)再次成為業(yè)界人士特別關(guān)注的問題,AI 的未來大有可期,而深度學(xué)習(xí)正在影響我們的日常生活。近日斯坦福大學(xué)給我們分享咯一則他對(duì)深度神經(jīng)網(wǎng)絡(luò)可解釋性的探索的論文,我們?nèi)タ纯此侨缋斫獾陌桑?/div>
2018-01-10 16:06:304032

關(guān)于紅外檢測(cè)技術(shù)的解釋性論文

關(guān)于紅外檢測(cè)技術(shù)的解釋性論文
2018-05-21 11:15:582

用淺顯的語言帶領(lǐng)大家了解可解釋性的概念與方法

廣義上的可解釋性指在我們需要了解或解決一件事情的時(shí)候,我們可以獲得我們所需要的足夠的可以理解的信息。
2018-06-25 10:21:115608

機(jī)器學(xué)習(xí)模型的“可解釋性”的概念及其重要意義

如果考察某些類型的“事后可解釋性”(post-hoc interpretable),深度神經(jīng)網(wǎng)絡(luò)具有明顯的優(yōu)勢(shì)。深度神經(jīng)網(wǎng)絡(luò)能夠?qū)W習(xí)豐富的表示,這些表示能夠可視化、用語言表達(dá)或用于聚類。如果考慮對(duì)可解釋性的需求,似乎線性模型在研究自然世界上的表現(xiàn)更好,但這似乎沒有理論上的原因。
2018-07-24 09:58:2019321

最新醫(yī)學(xué)圖像處理技術(shù):從形成到解釋

圖像形成過程包括數(shù)據(jù)采集和圖像重建步驟,為數(shù)學(xué)逆問題提供解決方案。圖像計(jì)算的目的是改善重建圖像的可解釋性并從中提取臨床相關(guān)信息。
2019-04-15 16:29:096752

探討一些可用于解釋機(jī)器學(xué)習(xí)模型的不同技術(shù)

下圖則闡述了在需要清晰簡(jiǎn)單的模型可解釋性時(shí),通常首選白盒模型 (具有線性和單調(diào)函數(shù)) 的原因。圖的上半部顯示,隨著年齡的增長(zhǎng),購買數(shù)量會(huì)增加,模型的響應(yīng)函數(shù)在全局范圍內(nèi)具有線性和單調(diào)關(guān)系,易于解釋模型。
2019-04-04 17:30:232470

微軟研究院院長(zhǎng):人工智能目前的局限在于無法解釋因果關(guān)系

類棋譜上未曾出現(xiàn)過,但最終被證明是好棋的“妙手”,但人類可能對(duì)這些“妙手”無法理解,那么“可解釋AI”是否意味著將高智能“降維”,即將復(fù)雜的智力計(jì)算簡(jiǎn)單化?
2019-07-04 11:11:14406

在將可解釋的人工智能變成現(xiàn)實(shí)之前 需要了解以下四件事

人工智能(AI)的能力無疑令人震驚,這讓許多人想知道它是如何做到的?,而這個(gè)問題的答案推動(dòng)了可解釋人工智能的概念,有時(shí)候稱為XAI。
2019-05-09 16:33:45420

神經(jīng)網(wǎng)絡(luò)可解釋性研究的重要性日益凸顯

神經(jīng)網(wǎng)絡(luò)的可解釋性,從經(jīng)驗(yàn)主義到數(shù)學(xué)建模
2019-06-27 10:54:204942

深度理解神經(jīng)網(wǎng)絡(luò)黑盒子:可驗(yàn)證性和可解釋性

雖然神經(jīng)網(wǎng)絡(luò)在近年來 AI 領(lǐng)域取得的成就中發(fā)揮了關(guān)鍵作用,但它們依舊只是有限可解釋性的黑盒函數(shù)近似器。
2019-08-15 09:17:3412652

第三代AI要處理“可解釋性”問題

語言是人類智能的重要標(biāo)志,在人類文明中的地位與作用毋庸置疑,自然語言處理,通俗地解釋就是“讓計(jì)算機(jī)學(xué)習(xí)人類語言”。
2019-08-15 09:41:462540

聯(lián)想集團(tuán)攜人工智能技術(shù)和解決方案亮相2019年The AI Summit

“因此,可解釋性對(duì)機(jī)器學(xué)習(xí),特別是深度學(xué)習(xí)是一個(gè)很大的挑戰(zhàn)。只有人類理解了AI的決策過程,才能將其應(yīng)用在更廣泛的社會(huì)場(chǎng)景中。”徐飛玉表示。
2019-09-27 11:24:012230

什么是可解釋的人工智能,它的定義如何

可解釋的人工智能意味著人類可以理解IT系統(tǒng)做出決定的路徑。人們可以通過分解這個(gè)概念來探究人工智能如此重要的原因。
2020-01-30 08:50:006435

Explainable AI旨在提高機(jī)器學(xué)習(xí)模型的可解釋性

Google Cloud AI戰(zhàn)略總監(jiān)Tracy Frey在 今天的博客中解釋說,Explainable AI旨在提高機(jī)器學(xué)習(xí)模型的可解釋性。她說,這項(xiàng)新服務(wù)的工作原理是量化每個(gè)數(shù)據(jù)因素對(duì)模型產(chǎn)生的結(jié)果的貢獻(xiàn),幫助用戶了解其做出決定的原因。
2020-03-24 15:14:212655

深度神經(jīng)網(wǎng)絡(luò)的實(shí)現(xiàn)機(jī)理與決策邏輯難以理解

人工智能系統(tǒng)所面臨的兩大安全問題的根源在于深度神經(jīng)網(wǎng)絡(luò)的不可解釋性。深度神經(jīng)網(wǎng)絡(luò)可解釋性定義為可判讀(interpretability)和可理解(explainability)兩方面的內(nèi)容??膳凶x性,即深度神經(jīng)網(wǎng)絡(luò)輸出可判讀
2020-03-27 15:56:182632

一項(xiàng)關(guān)于可解釋人工智能規(guī)劃(XAIP)的工作調(diào)查

可解釋AI(X AI)近年來一直是一個(gè)積極的研究課題,受到DARPA2016年倡議的推動(dòng)。 計(jì)算機(jī)視覺和自然語言處理等“感知”問題的機(jī)器學(xué)習(xí)的廣泛采用,導(dǎo)致了分類器的可解釋性技術(shù)的發(fā)展,包括LIME和AllenNLP解釋技術(shù)。
2020-04-03 14:57:482620

2020年AI如何發(fā)展?

今年秋天,F(xiàn)acebook發(fā)布了帶有量化和TPU支持的PyTorch 1.3,以及深度學(xué)習(xí)可解釋性工具Captum和PyTorch Mobile。還有諸如PyRobot和PyTorch Hub之類的東西,用于共享代碼并鼓勵(lì)機(jī)器學(xué)習(xí)(ML)實(shí)踐者實(shí)現(xiàn)可重復(fù)性。
2020-04-15 16:40:001703

Karen Andrews宣布了澳大利亞政府的官方AI道德框架

透明度和可解釋性:應(yīng)該有透明性和負(fù)責(zé)任的披露,以確保人們知道他們何時(shí)受到AI系統(tǒng)的重大影響,并可以找出AI系統(tǒng)何時(shí)與他們互動(dòng)。
2020-04-20 15:52:471513

試圖解構(gòu)AI思維邏輯臺(tái)大徐宏民力贊可信任的AI

 一般來說,效能(正確率)與可解釋性呈現(xiàn)負(fù)相關(guān)的關(guān)系,也就是說,可解釋性越高,效能就越差;效能越高,可解釋性就越低。
2020-05-17 09:49:08641

人工智能科技的發(fā)展將指引智能網(wǎng)聯(lián)汽車未來的發(fā)展方向

針對(duì)人工智能安全問題,他提出四大對(duì)策。第一方面對(duì)策是可解釋性,即我們了解或者解決一件事情的時(shí)候,可以獲得我們所需要的足夠可以理解的信息。比如說過去算法是黑盒算法,缺乏透明性、可解釋性,一旦發(fā)生問題,難以分析和驗(yàn)證到底問題出處。
2020-07-04 13:00:202783

詳談機(jī)器學(xué)習(xí)的決策樹模型

決策樹模型是白盒模型的一種,其預(yù)測(cè)結(jié)果可以由人來解釋。我們把機(jī)器學(xué)習(xí)模型的這一特性稱為可解釋性,但并不是所有的機(jī)器學(xué)習(xí)模型都具有可解釋性。
2020-07-06 09:49:063073

科普:示波器常用的術(shù)語解釋

科普:示波器常用的術(shù)語解釋
2020-07-15 18:55:003

人工智能算法的可解釋性方法研究

以深度學(xué)習(xí)為代表的人工智能技術(shù)在信息領(lǐng)域的應(yīng)用,極大地提高了信息的利用效率和挖掘價(jià)值,深刻的影響了各領(lǐng)域的業(yè)務(wù)形態(tài),同時(shí)也引發(fā)了監(jiān)管部門和用戶對(duì)這一新技術(shù)運(yùn)用中出現(xiàn)的 “算法黑箱”問題關(guān)切和疑慮。如何對(duì)相關(guān)算法、模型、及其給出的結(jié)果進(jìn)行合理的解釋成為數(shù)據(jù)科學(xué)家亟需解決的問題
2020-07-15 17:28:111166

dotData宣布dotData企業(yè)2.0版本的發(fā)布

AutoML中準(zhǔn)確性和可解釋性的自動(dòng)平衡 -除了追求最高準(zhǔn)確性的模型外,還使過程自動(dòng)化,以最小的準(zhǔn)確性變化探索更簡(jiǎn)單的ML模型。這使用戶可以根據(jù)他們的業(yè)務(wù)需求來平衡準(zhǔn)確性和可解釋性。
2020-09-11 10:32:041085

美國國家標(biāo)準(zhǔn)與NIST聯(lián)合發(fā)布人工智能的四項(xiàng)原則

性,涵蓋了可解釋AI的多學(xué)科性質(zhì),包括計(jì)算機(jī)科學(xué)、工程學(xué)和心理學(xué)領(lǐng)域。可解釋性是可信AI的主要特征之一,不同的AI用戶需要不同類型的解釋,因此并不存在唯一的解釋?!安莅浮碧岢隽宋孱?b class="flag-6" style="color: red">解釋,總結(jié)了可解釋AI理論
2020-09-15 11:09:363539

如何實(shí)現(xiàn)可解釋的人工智能?

一旦人們對(duì)一項(xiàng)技術(shù)失去了信任,就很難再獲得回報(bào)。因此,開發(fā)和使用人工智能的組織要想提高人工智能應(yīng)用程序的可信度和透明度,就必須超越負(fù)責(zé)任的人工智能。解決方案是實(shí)現(xiàn)可解釋人工智能(XAI),即以普通人能夠理解的方式描述人工智能解決方案的目的、原理和決策過程。
2020-09-20 10:19:043276

機(jī)器學(xué)習(xí)模型可解釋性的介紹

模型可解釋性方面的研究,在近兩年的科研會(huì)議上成為關(guān)注熱點(diǎn),因?yàn)榇蠹也粌H僅滿足于模型的效果,更對(duì)模型效果的原因產(chǎn)生更多的思考,這...
2020-12-10 20:19:43533

綜述深度神經(jīng)網(wǎng)絡(luò)的解釋方法及發(fā)展趨勢(shì)

、醫(yī)藥、交通等髙風(fēng)險(xiǎn)決策領(lǐng)域?qū)ι疃壬窠?jīng)網(wǎng)絡(luò)可解釋性提岀的強(qiáng)烈要求,對(duì)卷積神經(jīng)網(wǎng)絡(luò)、循環(huán)神經(jīng)網(wǎng)絳生成對(duì)抗網(wǎng)絡(luò)等典型網(wǎng)絡(luò)的解釋方法進(jìn)行分析梳理,總結(jié)并比較現(xiàn)有的解釋方法,同時(shí)結(jié)合目前深度神經(jīng)網(wǎng)絡(luò)的發(fā)展趨勢(shì),對(duì)其
2021-03-21 09:48:2318

一種擁有較好可解釋性的啟發(fā)式多分類集成算法

安全性得到重視,傳統(tǒng)融合策略可解釋性差的冋題凸顯。夲文基于心理學(xué)中的知識(shí)線記憶理論進(jìn)行建模參考人類決策過程,提出了一種擁有較好可解釋性的啟發(fā)式多分類器集成算法,稱為知識(shí)線集成算法。該算法模擬人類學(xué)習(xí)與推斷的
2021-03-24 11:41:3313

GNN解釋技術(shù)的總結(jié)和分析與圖神經(jīng)網(wǎng)絡(luò)的解釋性綜述

圖神經(jīng)網(wǎng)絡(luò)的可解釋性是目前比較值得探索的方向,今天解讀的2021最新綜述,其針對(duì)近期提出的 GNN 解釋技術(shù)進(jìn)行了系統(tǒng)的總結(jié)和分析,歸納對(duì)比了該問題的解決思路。
2021-03-27 11:45:325583

圖神經(jīng)網(wǎng)絡(luò)的解釋性綜述

圖神經(jīng)網(wǎng)絡(luò)的可解釋性是目前比較值得探索的方向,今天解讀的2021最新綜述,其針對(duì)近期提出的 GNN 解釋技術(shù)進(jìn)行了系統(tǒng)的總結(jié)和分析,歸納對(duì)比了該問題的解決思路。作者還為GNN解釋性問題提供了標(biāo)準(zhǔn)
2021-04-09 11:42:062440

《計(jì)算機(jī)研究與發(fā)展》—機(jī)器學(xué)習(xí)的可解釋性

機(jī)器學(xué)習(xí)的可解釋性 來源:《計(jì)算機(jī)研究與發(fā)展》,作者陳珂銳等 摘 要?近年來,機(jī)器學(xué)習(xí)發(fā)展迅速,尤其是深度學(xué)習(xí)在圖像、聲音、自然語言處理等領(lǐng)域取得卓越成效.機(jī)器學(xué)習(xí)算法的表示能力大幅度提高,但是
2022-01-25 08:35:36790

快速安裝 Python 解釋

1.1【環(huán)境】快速安裝 Python 解釋器 Python 是一門解釋性腳本語言,因此要想讓你編寫的代碼得以運(yùn)行,需要先安裝 CPython 解釋器。 根據(jù)你電腦的系統(tǒng)以及位數(shù)不同,安裝步驟也有
2022-02-15 16:57:541902

關(guān)于機(jī)器學(xué)習(xí)模型的六大可解釋性技術(shù)

本文介紹目前常見的幾種可以提高機(jī)器學(xué)習(xí)模型的可解釋性的技術(shù)。
2022-02-26 17:20:191831

機(jī)器學(xué)習(xí)模型的可解釋性算法詳解

本文介紹目前常見的幾種可以提高機(jī)器學(xué)習(xí)模型的可解釋性的技術(shù),包括它們的相對(duì)優(yōu)點(diǎn)和缺點(diǎn)。
2022-02-16 16:21:313986

人工智能的透明度和可解釋性義務(wù)

  SHAP 聚類提供了機(jī)器學(xué)習(xí)模型的局部、全局和組級(jí)決策的解釋。這里提供的擴(kuò)展允許對(duì)解釋進(jìn)行進(jìn)一步分析。這允許從業(yè)者為基于機(jī)器學(xué)習(xí)的決策構(gòu)建一個(gè)敘述和解釋,以滿足業(yè)務(wù)、監(jiān)管和客戶需求。
2022-04-07 09:12:232275

使用可解釋機(jī)器學(xué)習(xí)構(gòu)建多樣化投資組合

  對(duì)形狀值進(jìn)行聚類的想法基于 EU Horizon 項(xiàng)目FIN-TECH中最成功的 AI 用例,發(fā)布為可解釋機(jī)器學(xué)習(xí)在信用風(fēng)險(xiǎn)管理中的應(yīng)用。它
2022-04-07 09:20:481296

使用RAPIDS加速實(shí)現(xiàn)SHAP的模型可解釋性

  模型解釋性 幫助開發(fā)人員和其他利益相關(guān)者理解模型特征和決策的根本原因,從而使流程更加透明。能夠解釋模型可以幫助數(shù)據(jù)科學(xué)家解釋他們的模型做出決策的原因,為模型增加價(jià)值和信任。在本文中,我們將討論:
2022-04-21 09:25:561922

InterpretML機(jī)器學(xué)習(xí)可解釋性

./oschina_soft/interpret.zip
2022-06-16 09:51:541

可解釋機(jī)器學(xué)習(xí)

可解釋機(jī)器學(xué)習(xí)
2022-06-17 14:41:051

人工智能可解釋性規(guī)制面臨的問題分析

在實(shí)踐中,人工智能的規(guī)?;瘧?yīng)用推廣,在很大程度上依賴于用戶能否充分理解、合理信任并且有效管理人工智能這一新型伙伴。為此,確保人工智能產(chǎn)品、服務(wù)和系統(tǒng)具有透明性(Transparency)與可解釋性(Explainability)是至關(guān)重要的。
2022-08-09 10:04:011132

基于深度學(xué)習(xí)的可解釋特征準(zhǔn)確預(yù)測(cè)混凝土抗壓強(qiáng)度

基于深度學(xué)習(xí)的可解釋特征準(zhǔn)確預(yù)測(cè)混凝土抗壓強(qiáng)度 Accurate prediction of concrete compressive strength based on explainable
2022-09-06 09:35:53800

淺談一下對(duì)未來的CAM發(fā)展或者是未來可解釋深度模型的發(fā)展

這個(gè)問題起源于我的對(duì)于現(xiàn)階段CAM解釋網(wǎng)絡(luò)特征變化的未來發(fā)展的一些不確定。我自己在20年開始寫文章就沉迷上使用了CAM去解釋自己的添加的網(wǎng)絡(luò)結(jié)構(gòu)模塊了。
2022-09-13 11:25:111263

人工智能未來十年會(huì)怎樣發(fā)展

這一代人工智能浪潮也許到終點(diǎn)還是沒有推理能力,沒有可解釋能力。而下一波人工智能浪潮的興起,就是實(shí)現(xiàn)具有推理、具有可解釋性、具有認(rèn)知的人工智能。
2022-09-22 10:58:341289

編譯BASIC解釋器方案

電子發(fā)燒友網(wǎng)站提供《編譯BASIC解釋器方案.zip》資料免費(fèi)下載
2022-10-19 09:59:460

使用LIME解釋CNN

作者:Mehul Gupta 來源:DeepHub IMBA 我們已經(jīng)介紹過很多解析機(jī)器學(xué)習(xí)模型的方法,例如如pdp、LIME和SHAP,但是這些方法都是用在表格數(shù)據(jù)的,他們能不能用在神經(jīng)網(wǎng)絡(luò)模型
2022-11-25 11:15:05376

可解釋知識(shí)圖譜推理」最新方法綜述

隨著信息技術(shù)的不斷發(fā)展,人工智能實(shí)現(xiàn)了 從能存會(huì)算的“計(jì)算智能”,到能聽會(huì)說、能看會(huì) 認(rèn)的“感知智能”[1-3],再到下一階段具備理解、 推理和解釋能力的“認(rèn)知智能”[4-6]的逐漸演變, 這 3 個(gè)階段的實(shí)現(xiàn)難度和價(jià)值同時(shí)逐次提升。
2022-12-21 10:50:46428

自動(dòng)駕駛芯片行業(yè)趨勢(shì)

一是自動(dòng)駕駛高度依賴不具備可解釋性的深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò),不具備可解釋性就意味著無法真正迭代升級(jí)。公認(rèn)自動(dòng)駕駛技術(shù)霸主的Waymo研發(fā)自動(dòng)駕駛已經(jīng)14年,但近10年來都沒有取得顯著進(jìn)展原因就是如此。
2022-12-21 11:44:10728

醫(yī)學(xué)圖像處理:從形成到解釋

圖像形成過程由數(shù)據(jù)采集和圖像重建步驟組成,為數(shù)學(xué)逆問題提供了解決方案。圖像計(jì)算的目的是提高重建圖像的可解釋性,并從中提取臨床相關(guān)信息。最后,圖像管理處理采集的圖像和衍生信息的壓縮、存檔、檢索和通信。
2022-12-22 14:35:031297

DARPA的可解釋人工智能程序

自主性挑戰(zhàn)的動(dòng)機(jī)是需要有效管理AI合作伙伴。例如,國防部尋求半自主系統(tǒng)來增強(qiáng)作戰(zhàn)人員的能力。操作員需要了解它們的行為,以便確定在未來任務(wù)中如何以及何時(shí)最好地使用它們。有效的解釋將更好地促成這種決定
2023-01-30 11:40:47407

機(jī)器學(xué)習(xí)模型的可解釋性算法匯總

目前很多機(jī)器學(xué)習(xí)模型可以做出非常好的預(yù)測(cè),但是它們并不能很好地解釋他們是如何進(jìn)行預(yù)測(cè)的,很多數(shù)據(jù)科學(xué)家都很難知曉為什么該算法會(huì)得到這樣的預(yù)測(cè)結(jié)果。這是非常致命的,因?yàn)槿绻覀儫o法知道某個(gè)算法是如何進(jìn)行預(yù)測(cè),那么我們將很難將其前一道其它的問題中,很難進(jìn)行算法的debug。
2023-02-03 11:34:061038

可以提高機(jī)器學(xué)習(xí)模型的可解釋性技術(shù)

本文介紹目前常見的幾種可以提高機(jī)器學(xué)習(xí)模型的可解釋性的技術(shù),包括它們的相對(duì)優(yōu)點(diǎn)和缺點(diǎn)。
2023-02-08 14:08:52861

KUKA使用SUBMIT解釋

SUBMIT 解釋器與機(jī)器人解釋器和 I/O 管理器共享系統(tǒng)功率,其中,機(jī)器人解釋器和 I/O 管理器具有更高的優(yōu)先級(jí)。因此,SUBMIT 解釋器不會(huì)定期在機(jī)器人控制系統(tǒng)的 12 ms 插值周期內(nèi)連續(xù)運(yùn)行。
2023-03-08 11:22:182539

如何安裝Python解釋

安裝Python解釋器是搭建Python編程環(huán)境的第一步。Python解釋器是Python編程語言的核心組件,負(fù)責(zé)解析和執(zhí)行Python代碼。在本文中,我們將介紹如何安裝Python解釋器,以便您能夠開始學(xué)習(xí)和使用Python編程語言。
2023-04-14 12:08:404675

文獻(xiàn)綜述:確保人工智能可解釋性和可信度的來源記錄

本文對(duì)數(shù)據(jù)起源、可解釋AI(XAI)和可信賴AI(TAI)進(jìn)行系統(tǒng)的文獻(xiàn)綜述,以解釋基本概念,說明數(shù)據(jù)起源文件可以用來提升基于人工智能系統(tǒng)實(shí)現(xiàn)可解釋性。此外,文中還討論了這個(gè)領(lǐng)域近期的發(fā)展模式,并對(duì)未來的研究進(jìn)行展望。
2023-04-28 15:55:48905

OpenAI用GPT-4解釋了GPT-2三十萬個(gè)神經(jīng)元:智慧原來是這個(gè)樣子

可解釋性研究的一種簡(jiǎn)單方法是首先了解 AI 模型各個(gè)組件(神經(jīng)元和注意力頭)在做什么。傳統(tǒng)的方法是需要人類手動(dòng)檢查神經(jīng)元,以確定它們代表數(shù)據(jù)的哪些特征。這個(gè)過程很難擴(kuò)展,將它應(yīng)用于具有數(shù)百或數(shù)千億個(gè)參數(shù)的神經(jīng)網(wǎng)絡(luò)的成本過于高昂。
2023-05-15 09:40:29310

你是什么時(shí)候?qū)ι疃葘W(xué)習(xí)失去信心的?

這就使得,原本深度學(xué)習(xí)被詬病可解釋性問題,其實(shí)不再是問題。因?yàn)閺臉I(yè)務(wù)頂層已經(jīng)被拆分,拆分成一個(gè)個(gè)可以被人理解的因子,無法被合理解釋的因子,項(xiàng)目啟動(dòng)的評(píng)審都無法通過。
2023-05-19 10:09:40244

可信人工智能研究方向與算法探索

為了建立可信、可控、安全的人工智能,學(xué)術(shù)界與工業(yè)界致力于增強(qiáng)人工智能系統(tǒng)與算法的可解釋性。具體地,可信人工智能旨在增強(qiáng)人工智能系統(tǒng)在知識(shí)表征、表達(dá)能力、優(yōu)化與學(xué)習(xí)能力等方面的可解釋性與可量化性以及增強(qiáng)人工智能算法內(nèi)在機(jī)理的可解釋性。
2023-05-24 10:02:16363

設(shè)計(jì)模式:解釋器設(shè)計(jì)模式

Java解釋器是一種將Java程序翻譯成機(jī)器可執(zhí)行代碼的工具。
2023-06-06 11:22:34481

設(shè)計(jì)模式行為型:解釋器模式

定義一個(gè)語言的文法,并創(chuàng)建一個(gè)解釋器去解釋該語言中的句子,這里的“語言”是指使用規(guī)定格式和語法的代碼。
2023-06-06 17:35:44634

設(shè)計(jì)模式行為型:解釋器模式

定義一個(gè)語言的文法,并創(chuàng)建一個(gè)解釋器去解釋該語言中的句子,這里的“語言”是指使用規(guī)定格式和語法的代碼。
2023-06-07 16:55:03348

為k近鄰機(jī)器翻譯領(lǐng)域自適應(yīng)構(gòu)建可解釋知識(shí)庫

為了找到NMT模型的潛在缺陷,構(gòu)建更加可解釋的知識(shí)庫,我們提出以局部準(zhǔn)確性這一新概念作為分析角度。其中,局部準(zhǔn)確性又包含兩個(gè)子概念:條目準(zhǔn)確性(entry correctness)和鄰域準(zhǔn)確性(neighborhood correctness)。
2023-06-13 15:25:19390

使用LIME解釋CNN

作者:MehulGupta來源:DeepHubIMBA我們已經(jīng)介紹過很多解析機(jī)器學(xué)習(xí)模型的方法,例如如pdp、LIME和SHAP,但是這些方法都是用在表格數(shù)據(jù)的,他們能不能用在神經(jīng)網(wǎng)絡(luò)模型呢?今天
2022-11-30 15:45:45327

萬眾期待的代碼解釋器上線了!

所謂代碼解釋器,即不會(huì)編碼的人,面向幾乎所有的問題時(shí),只需用自然語言提問,ChatGPT 也可以完成需要復(fù)雜編程技術(shù)的任務(wù)。現(xiàn)實(shí)來看,ChatGPT 代碼解釋器并不是一款普通的 AI 插件。
2023-07-17 15:02:11369

可解釋人工智能(XAI)在軍事領(lǐng)域的作用

深度學(xué)習(xí)有提升戰(zhàn)斗機(jī)、潛艇、無人機(jī)、衛(wèi)星監(jiān)視系統(tǒng)等復(fù)雜軍事系統(tǒng)的自主性的潛力,但它也可能使這些系統(tǒng)變得更加復(fù)雜、更加難以解釋。
2023-07-25 10:33:04638

三個(gè)主要降維技術(shù)對(duì)比介紹:PCA, LCA,SVD

隨著數(shù)據(jù)集的規(guī)模和復(fù)雜性的增長(zhǎng),特征或維度的數(shù)量往往變得難以處理,導(dǎo)致計(jì)算需求增加,潛在的過擬合和模型可解釋性降低。
2023-10-09 10:13:47422

新火種AI|比爾蓋茨表態(tài):生成式AI已成過去接下來是可解釋AI的天下

可解釋AI。比爾.蓋茨預(yù)測(cè),未來10年(2030年-2039年),AI領(lǐng)域的主角將成為可解釋AI。 ? 大部分人預(yù)判:GPT-5將明顯優(yōu)于GPT-4,成為生成式AI領(lǐng)域天花板。 盡管OpenAI還沒有對(duì)外界公布GPT-5的確切上線時(shí)間,甚至還曾遭到馬斯克等人的反對(duì),被其“聯(lián)名上
2023-12-06 10:36:01499

愛立信推出認(rèn)知軟件新功能

日前,愛立信宣布在其專為運(yùn)營商設(shè)計(jì)的認(rèn)知軟件組合中,新增采用“可解釋性人工智能(Explainable AI,XAI)”的新功能,進(jìn)一步加速在網(wǎng)絡(luò)設(shè)計(jì)和優(yōu)化中采用人工智能后的價(jià)值轉(zhuǎn)化。
2024-02-22 09:22:19570

已全部加載完成