程序員當(dāng)前解決與人工智能(AI)和自動(dòng)駕駛汽車(AV)有關(guān)的道德問(wèn)題的方式中存在一個(gè)很大的缺陷。也就是說(shuō),現(xiàn)有方法無(wú)法說(shuō)明人們可能會(huì)嘗試使用AV來(lái)做一些不好的事情。
例如,假設(shè)有一輛無(wú)人駕駛的自動(dòng)駕駛汽車,它即將撞上一輛載有五個(gè)人的汽車。它可以通過(guò)轉(zhuǎn)出道路來(lái)避免碰撞,但隨后會(huì)撞到行人。
在這種情況下,關(guān)于道德的大多數(shù)討論都集中在自動(dòng)駕駛汽車的AI是自私的(保護(hù)車輛及其貨物)還是功利的(選擇傷害最少的人的行動(dòng))。但是,這種或/或道德方法會(huì)引發(fā)自身的問(wèn)題。
北卡羅萊納州立大學(xué)科學(xué),技術(shù)與社會(huì)(STS)計(jì)劃的助理教授VeljkoDubljevi?說(shuō):“目前的道德和自動(dòng)駕駛方法過(guò)于危險(xiǎn),過(guò)于簡(jiǎn)單,道德判斷比這更為復(fù)雜?!备攀隽诉@個(gè)問(wèn)題以及可能的前進(jìn)方向。“例如,如果車上的五個(gè)人是恐怖分子呢?又如果他們故意利用AI的程序殺死附近的行人或傷害他人呢?那么您可能希望自動(dòng)駕駛汽車撞上五個(gè)人?乘客。
“換句話說(shuō),當(dāng)前用于解決AI和自動(dòng)駕駛汽車道德問(wèn)題的簡(jiǎn)單方法不能說(shuō)明惡意意圖。它應(yīng)該這樣做?!?/p>
作為替代方案,Dubljevi?建議使用所謂的Agent-Deed-Consequence(ADC)模型作為AI可以用來(lái)做出道德判斷的框架。ADC模型基于三個(gè)變量來(lái)判斷決策的道德性。
首先,代理人的意圖是好是壞?第二,行為或行動(dòng)本身是好是壞?最后,結(jié)果或后果是好是壞?這種方法允許細(xì)微差別。
例如,大多數(shù)人會(huì)同意開(kāi)紅燈是不好的。但是,如果您闖紅燈以避開(kāi)急速的救護(hù)車怎么辦?如果開(kāi)紅燈意味著您避免與那輛救護(hù)車相撞怎么辦?
Dubljevi?說(shuō):“ ADC模型將使我們更接近人類道德判斷中看到的靈活性和穩(wěn)定性,但AI中尚不存在這種靈活性和穩(wěn)定性。”“這就是我所說(shuō)的穩(wěn)定和靈活。人類的道德判斷是穩(wěn)定的,因?yàn)榇蠖鄶?shù)人會(huì)同意撒謊在道德上是有害的。但是,這是靈活的,因?yàn)榇蠖鄶?shù)人也會(huì)同意為保護(hù)猶太人而撒謊來(lái)納粹的人在做道德上的事情。好。
“但是,盡管ADC模型為我們提供了一條前進(jìn)的道路,但仍需要進(jìn)行更多的研究,”Dubljevi?說(shuō)?!拔翌I(lǐng)導(dǎo)了有關(guān)哲學(xué)家和外行人如何進(jìn)行道德判斷的實(shí)驗(yàn)性工作,其結(jié)果是有價(jià)值的。但是,該工作以書面形式給了人們信息。需要更多的人類道德判斷研究,而這需要更直接的交流手段,例如虛擬現(xiàn)實(shí),如果我們想確認(rèn)我們先前的發(fā)現(xiàn)并在自動(dòng)駕駛汽車中應(yīng)用它們,那么,在任何公認(rèn)的“道德”自動(dòng)駕駛汽車開(kāi)始與人定期分享道路之前,應(yīng)進(jìn)行駕駛模擬研究的嚴(yán)格測(cè)試。不幸的是,攻擊已變得越來(lái)越普遍,我們需要確保不會(huì)將AV技術(shù)濫用于邪惡目的。”
論文“致力于在自動(dòng)駕駛汽車中實(shí)現(xiàn)道德判斷的ADC模型”已發(fā)表在《科學(xué)與工程倫理學(xué)》雜志上。
-
人工智能
+關(guān)注
關(guān)注
1789文章
46664瀏覽量
237102 -
自動(dòng)駕駛
+關(guān)注
關(guān)注
782文章
13622瀏覽量
165953
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論