人工智能目前容易受到偏見(jiàn)和其他缺陷的影響。
人工智能(AI)正在或即將顛覆每個(gè)行業(yè)。項(xiàng)技術(shù)將帶來(lái)巨大的生產(chǎn)力提高、成本大幅降低和研發(fā)的巨大進(jìn)步。到2030年,人工智能將使全球GDP增長(zhǎng)超過(guò)15.7萬(wàn)億美元,人們很容易認(rèn)為這項(xiàng)技術(shù)只能是一種不受約束的好東西。那將是一個(gè)危險(xiǎn)的錯(cuò)誤。
與任何技術(shù)一樣,人工智能可能會(huì)對(duì)個(gè)人、社會(huì)和經(jīng)濟(jì)產(chǎn)生有害影響:一些常見(jiàn)的擔(dān)憂包括,它提供的工具可能被犯罪分子利用,危害個(gè)人和組織的網(wǎng)絡(luò)安全,或者人工智能的預(yù)測(cè)能力引發(fā)了一系列隱私問(wèn)題。但是,對(duì)于人工智能來(lái)說(shuō),最危險(xiǎn)的可能性之一,它將被用來(lái)削弱強(qiáng)大組織內(nèi)部的責(zé)任結(jié)構(gòu),同時(shí)使現(xiàn)有的不公正偏見(jiàn)長(zhǎng)期存在于受保護(hù)的特征上,如年齡、性別或種族。
市場(chǎng)往往傾向于不優(yōu)先考慮個(gè)人道德和道德原則的目的。雖然在人工智能標(biāo)準(zhǔn)的開(kāi)發(fā)方面有一些非常棒的舉措,比如IEEE倫理一致的設(shè)計(jì)或人工智能的ISO標(biāo)準(zhǔn),但人們不能依靠自律來(lái)讓這項(xiàng)技術(shù)發(fā)揮作用。與其相反,人們必須通過(guò)建立符合目的的監(jiān)管框架來(lái)保護(hù)其道德,這將迫使最佳做法和減少該行業(yè)的惡意活動(dòng)。
人工智能的社會(huì)挑戰(zhàn)
如前所述,人們認(rèn)為使監(jiān)管制度具有說(shuō)服力的兩個(gè)挑戰(zhàn)是偏見(jiàn)問(wèn)題和問(wèn)責(zé)制問(wèn)題。
眾所周知,如果人工智能的設(shè)計(jì)、開(kāi)發(fā)或部署不當(dāng),就會(huì)造成不良的社會(huì)偏見(jiàn)。這是因?yàn)閿?shù)據(jù)固有地帶有社會(huì)在整個(gè)歷史中發(fā)展起來(lái)的偏見(jiàn)。這意味著,如果模型使用有偏見(jiàn)的數(shù)據(jù)進(jìn)行訓(xùn)練,這些數(shù)據(jù)代表或不足代表某些特征、結(jié)果或群體,那么該模型最終可能會(huì)基于該偏見(jiàn)做出社會(huì)不公正的決策。例如,許多負(fù)責(zé)整個(gè)美國(guó)警務(wù)工作的人工智能都接受了關(guān)于犯罪與種族之間聯(lián)系的現(xiàn)成偽造數(shù)據(jù)的培訓(xùn),這導(dǎo)致這些模型將其決策偏向少數(shù)族裔。
對(duì)于問(wèn)責(zé)制,在整個(gè)人工智能系統(tǒng)的設(shè)計(jì)、開(kāi)發(fā)和運(yùn)行中,涉及個(gè)人和組織的責(zé)任存在一定程度的模糊性。考慮被自動(dòng)駕駛汽車撞倒的人員的情況,那么應(yīng)該對(duì)誰(shuí)負(fù)責(zé)?傳統(tǒng)上,車輛制造商應(yīng)對(duì)其車輛設(shè)計(jì)造成的損壞負(fù)責(zé),但人工智能開(kāi)辟了一個(gè)復(fù)雜的責(zé)任鏈,可以推卸責(zé)任:有人可以說(shuō)是制造商,即簽約開(kāi)發(fā)駕駛?cè)斯ぶ悄艿能浖_(kāi)發(fā)商,批準(zhǔn)人工智能的合規(guī)性官員或批準(zhǔn)過(guò)錯(cuò)的自動(dòng)駕駛?cè)斯ぶ悄芤?guī)范的行業(yè)組織。
可以要求一定程度責(zé)任的利益相關(guān)者網(wǎng)絡(luò)意味著,那些因人工智能的過(guò)失而尋求賠償或正義的人可能會(huì)面臨官僚的噩夢(mèng)??紤]到人工智能模型可以做出影響個(gè)人未來(lái)的重大決策,而個(gè)人無(wú)力追究組織的責(zé)任會(huì)使個(gè)人無(wú)力反抗機(jī)構(gòu)的無(wú)能或惡意。
為什么監(jiān)管是解決這些挑戰(zhàn)的辦法
值得慶幸的是,專家們?cè)陂_(kāi)發(fā)針對(duì)上述兩種社會(huì)問(wèn)題的工具和流程方面取得了進(jìn)展。
為了減輕偏見(jiàn),從事人工智能的人員知道如何在選擇訓(xùn)練數(shù)據(jù)時(shí)更加嚴(yán)格。在網(wǎng)絡(luò)安全領(lǐng)域,人們已經(jīng)承認(rèn),盡管不可能引入使系統(tǒng)無(wú)法被黑客入侵的萬(wàn)能技術(shù),但是可以引入流程和接觸點(diǎn),以確保減輕網(wǎng)絡(luò)安全漏洞的最佳實(shí)踐。
同樣,在算法偏差的情況下,可以引入相關(guān)流程和最佳做法來(lái)確保減輕不希望的偏差。通過(guò)利用領(lǐng)域?qū)<液腿斯ぶ悄芸山忉屝约夹g(shù)的知識(shí),組織能夠減輕風(fēng)險(xiǎn)并將可解釋性引入關(guān)鍵流程。這樣可確保將來(lái)自訓(xùn)練數(shù)據(jù)的系統(tǒng)性偏差降至最低,從而防止模型做出歧視性決策。關(guān)于恢復(fù)問(wèn)責(zé)制,人們還可以在整個(gè)人工智能生命周期中引入相關(guān)的接觸點(diǎn),從而將人員置于決策過(guò)程中,以確保在整個(gè)過(guò)程中都有問(wèn)責(zé)制結(jié)構(gòu)。
但是,人們不能指望私營(yíng)企業(yè)確保上述做法得到廣泛實(shí)施。取而代之的是,這些與偏見(jiàn)、恢復(fù)責(zé)任制和改善可解釋性的最佳做法必須從外部進(jìn)行激勵(lì)。這就是人工智能呼吁監(jiān)管環(huán)境的原因。為此,決策者和開(kāi)發(fā)人員將需要團(tuán)結(jié)起來(lái),跨學(xué)科參與協(xié)作,以平衡技術(shù)、社會(huì)和法律要求。
合規(guī)性的另一個(gè)效果是,它將在現(xiàn)場(chǎng)獲得更大的信心和穩(wěn)定性。如果實(shí)施得當(dāng),一個(gè)良好的監(jiān)管制度將迫使采用人工智能部署的最佳實(shí)踐,可以創(chuàng)造新的工作來(lái)實(shí)施這些實(shí)踐,吸引更多的行業(yè)投資,并刺激更多的創(chuàng)新以使人工智能變得人性化,并具有變革性。
責(zé)任編輯:tzh
-
網(wǎng)絡(luò)
+關(guān)注
關(guān)注
14文章
7485瀏覽量
88541 -
AI
+關(guān)注
關(guān)注
87文章
29806瀏覽量
268106 -
人工智能
+關(guān)注
關(guān)注
1789文章
46652瀏覽量
237083 -
自動(dòng)駕駛
+關(guān)注
關(guān)注
782文章
13621瀏覽量
165952
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論