人工智能技術(shù)的透明度和道德倫理問題正引發(fā)越來越多的關(guān)注,這促使云計(jì)算服務(wù)提供商推出新工具,解釋人工智能算法背后的決策過程。
會計(jì)和金融等強(qiáng)監(jiān)管行業(yè)的高管表示,數(shù)據(jù)科學(xué)家和非技術(shù)業(yè)務(wù)經(jīng)理都必須能理解算法決策背后的流程。這至關(guān)重要。這樣的理解在防范潛在道德違規(guī)和監(jiān)管違規(guī)方面可能會帶來深遠(yuǎn)影響,尤其考慮到企業(yè)級人工智能算法正變得越來越普遍。
畢馬威創(chuàng)新和企業(yè)解決方案部門負(fù)責(zé)智能自動化、認(rèn)知和人工智能的高管維諾德·斯瓦米納桑(Vinodh Swaminathan)表示:“我認(rèn)為,除非具備這種解釋能力,否則人工智能在企業(yè)中的規(guī)模不可能超過數(shù)百個試點(diǎn)應(yīng)用?!?/p>
對人工智能的解釋問題已經(jīng)促使IBM和谷歌等公司在云計(jì)算人工智能服務(wù)產(chǎn)品中引入透明度和道德倫理工具。
IBM商業(yè)價值研究所近期的一項(xiàng)研究調(diào)查了5000名企業(yè)高管。約60%的受訪者表示,他們關(guān)心如何解釋人工智能使用數(shù)據(jù)作出決策,以達(dá)到監(jiān)管和合規(guī)標(biāo)準(zhǔn)。這個比例較2016年時的29%大幅上升。
甚至對數(shù)據(jù)科學(xué)家和相關(guān)企業(yè)高管來說,人工智能的決策過程有時都是“黑盒”。在深度學(xué)習(xí)工具,例如用于模式識別的神經(jīng)網(wǎng)絡(luò)中尤其如此。這樣的神經(jīng)網(wǎng)絡(luò)試圖模擬人腦的運(yùn)轉(zhuǎn)方式。
盡管這些系統(tǒng)可以以前所未有的準(zhǔn)確率和速度得出結(jié)論,但外界并不總是非常清楚,計(jì)算網(wǎng)絡(luò)是如何做出具體的決策。
畢馬威內(nèi)部的數(shù)據(jù)科學(xué)家正在開發(fā)自主的可解釋性工具,此外該公司也在利用IBM新的透明度工具。斯瓦米納桑表示,這樣做的目的是確保技術(shù)和業(yè)務(wù)兩方面的員工都能“打開黑盒”,準(zhǔn)確地了解人工智能算法是如何做出結(jié)論的。
IBM上周發(fā)布了新的云計(jì)算人工智能工具,可以向用戶展示哪些主要因素影響了人工智能做出的建議。這些工具還可以實(shí)時分析人工智能決策,以識別固有偏見,并推薦數(shù)據(jù)和方法來解決這些偏見。IBM負(fù)責(zé)認(rèn)知解決方案的高級副總裁大衛(wèi)·肯尼(David Kenny)表示,這些工具可以與IBM人工智能服務(wù),以及谷歌等其他云計(jì)算服務(wù)提供商的工具配合使用。
谷歌研究科學(xué)家和軟件工程師發(fā)布的博文則顯示,谷歌去年開始為開源的機(jī)器學(xué)習(xí)代碼發(fā)布新工具,“作為更廣泛研究的一部分,滿足對可解釋性的政策目標(biāo)”。谷歌本月早些時候發(fā)布的另一款人工智能工具允許非程序員檢查和調(diào)試機(jī)器學(xué)習(xí)系統(tǒng),以評估算法的公平性。
微軟正通過Azure來提供人工智能服務(wù)。該公司發(fā)言人表示,人工智能系統(tǒng)的設(shè)計(jì)需要有公平、透明和安全的保護(hù),從而確保信任。微軟正在這方面做出持續(xù)的努力。亞馬遜沒有對此問題做出回應(yīng)。
來自強(qiáng)監(jiān)管金融行業(yè)的Capital One Financial Corp和美國銀行正在研究,如何解釋人工智能算法得出答案的背后原理。兩家公司都表示,目標(biāo)是利用人工智能來優(yōu)化對欺詐的監(jiān)測,但首先它們需要了解這些算法是如何工作的。
-
云計(jì)算
+關(guān)注
關(guān)注
38文章
7612瀏覽量
136732 -
人工智能
+關(guān)注
關(guān)注
1787文章
46060瀏覽量
234980
原文標(biāo)題:GGAI 趨勢 | AI透明度引發(fā)關(guān)注 科技巨頭推工具解釋算法決策過程
文章出處:【微信號:ggservicerobot,微信公眾號:高工智能未來】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
評論