自動(dòng)駕駛會(huì)影響人們的傳統(tǒng)駕駛倫理觀,而且還會(huì)創(chuàng)造出新的駕駛倫理觀念,因此對(duì)自動(dòng)駕駛的倫理決策制定基本框架是具有前瞻性的。
設(shè)想,一個(gè)醉漢突然沖向馬路,因撞上了正在行駛的自動(dòng)駕駛車輛而死亡。在現(xiàn)有的法律框架下,人們不會(huì)苛責(zé)任何一個(gè)正常的理性人,因?yàn)閹缀鯖]有可能避免這樣的意外事故。但是自動(dòng)駕駛汽車,可能會(huì)改變?nèi)藗儗?duì)過錯(cuò)的判斷標(biāo)準(zhǔn),因?yàn)槲磥恚@個(gè)標(biāo)準(zhǔn)將是合理機(jī)器人(reasonable robot)標(biāo)準(zhǔn)。此外,相較于人工駕駛,自動(dòng)駕駛更具有“可責(zé)性”。
因?yàn)?,自?dòng)駕駛車輛的決策基礎(chǔ)是事前的系統(tǒng)編程,所以可以理解為,對(duì)于交通事故的損害結(jié)果具有事前的“預(yù)謀”和“故意”。
《2018年全球自動(dòng)駕駛法律政策研究報(bào)告》關(guān)于全球政策分析第六章《倫理:自動(dòng)駕駛的阿喀琉斯之踵》中,針對(duì)相關(guān)政策給出了分析與答案,以下為具體內(nèi)容:
探索自動(dòng)駕駛的具體倫理規(guī)則
在自動(dòng)駕駛汽車倫理問題上歷來存在巨大爭議。像“電車難題”這樣的倫理困境,人類尚且難以給出兩全之策,機(jī)器又該如何妥善處置呢?
有學(xué)者指出對(duì)電車難題的討論是沒有意義的。德國車輛制造商梅賽德斯更是直截了當(dāng)?shù)亟o出了自己的答案,即梅賽德斯將優(yōu)先保護(hù)車上人員安全,同時(shí)指出電車難題不是一個(gè)真正的問題,因?yàn)樵?a target="_blank">公司將“致力于提高和完善技術(shù)和風(fēng)險(xiǎn)防范策略,完全避免兩難情況的出現(xiàn)”。
美國交通部2016年將倫理問題作為自動(dòng)駕駛汽車15項(xiàng)安全評(píng)估標(biāo)準(zhǔn)之后,2017年卻將其從中刪除,這一轉(zhuǎn)變表明倫理事項(xiàng)并非當(dāng)前的核心問題。然而,德國則嘗試應(yīng)對(duì)自動(dòng)駕駛汽車帶來的倫理問題,并為自動(dòng)駕駛汽車提出了20項(xiàng)倫理準(zhǔn)則,但這些原則能否落實(shí)到技術(shù)層面也備受爭議。
2017年6月,德國聯(lián)邦交通部自動(dòng)駕駛倫理委員提交了《自動(dòng)駕駛汽車倫理報(bào)告》,該報(bào)告指出三項(xiàng)宏觀倫理要求:
其一,自動(dòng)駕駛的首要目標(biāo)是提升所有交通參與者的安全,在同等程度上降低所有交通參與者的風(fēng)險(xiǎn);
其二,認(rèn)為自動(dòng)駕駛系統(tǒng)發(fā)生事故并不超出倫理界限;
其三,雖然自動(dòng)駕駛技術(shù)能夠降低風(fēng)險(xiǎn),提高道路安全,但如果以法律命令要求必須使用和普及這種技術(shù),在倫理層面就是有問題的。
在微觀上,該報(bào)告從倫理困境,網(wǎng)聯(lián)安全和車輛數(shù)據(jù)保護(hù),人機(jī)交互,新技術(shù)背景下其他領(lǐng)域的倫理問題,責(zé)任認(rèn)定等角度提出了多項(xiàng)具體要求,主要包括以下三方面:
(1)明確優(yōu)先選項(xiàng)并進(jìn)行限制
諸如“電車難題”這樣的倫理困境,其核心在于不同利益具有各自合理性的同時(shí)又相互排斥,不論從功利主義還是義務(wù)論的角度解釋,侵犯任何一方的權(quán)益均難具說服力。例如,小孩和老人的生命,乘客和行人的生命,五個(gè)人和一個(gè)人的生命等等。因此,在討論倫理抉擇時(shí),需要首先明確的是,所謂“優(yōu)先選項(xiàng)”并非“否定選項(xiàng)”,因?yàn)閭惱斫^對(duì)不鼓勵(lì)損害任何一方的利益,且任何一方的利益都具有合理性和正當(dāng)性,任何抉擇都將產(chǎn)生道德遺憾。
在具體規(guī)范中,明確和限制對(duì)優(yōu)先選項(xiàng)的選擇主要體現(xiàn)在兩個(gè)方面,其一是對(duì)人的保護(hù)優(yōu)先于所有其他利益考量,即在用盡所有技術(shù)防御仍無法避免的危險(xiǎn)中,對(duì)人類生命的保護(hù)在法律上高于一切。也即,在技術(shù)可行性框架范圍內(nèi),為了避免人身傷害,接受對(duì)動(dòng)物或財(cái)物的損害。
其二是禁止歧視,即在發(fā)生不可避免的危險(xiǎn)時(shí),嚴(yán)格禁止將個(gè)人特征(如年齡、性別、身體及精神狀況等)作為評(píng)判標(biāo)準(zhǔn)。禁止對(duì)受害者進(jìn)行區(qū)別對(duì)待,禁止對(duì)被害人進(jìn)行相互抵消,禁止認(rèn)為根據(jù)主體數(shù)量決定“五個(gè)人的生命價(jià)值高于一個(gè)人的生命價(jià)值”。
(2)保留人對(duì)車輛的控制權(quán)并禁止事先編程
在以個(gè)人為中心、促進(jìn)自由發(fā)展的同時(shí),關(guān)于技術(shù)的立法策略應(yīng)該是追求個(gè)人選擇權(quán)最大化。如果要求每個(gè)駕駛員都按照編程做出倫理決策,等于剝奪了駕駛員自主選擇的權(quán)利。德國自動(dòng)駕駛倫理原則第1條指出,技術(shù)應(yīng)遵循個(gè)人自治原則(the principle of personal autonomy),個(gè)人也應(yīng)對(duì)自身享有的行動(dòng)自由負(fù)責(zé)。與此類似,阿西洛馬人工智能原則的第16條也指出,人類應(yīng)該來決定如何和是否讓人工智能系統(tǒng)去完成人類選擇的目標(biāo)。而這一點(diǎn),也是確保車上人員能夠長遠(yuǎn)地享有車輛絕對(duì)控制權(quán)的重要途徑。
保留人對(duì)車輛的控制主權(quán)同時(shí)還體現(xiàn)在禁止程序開發(fā)人員對(duì)倫理抉擇進(jìn)行事先編程。德國自動(dòng)駕駛倫理原則指出,對(duì)于兩難局面,即必須在人的生命之間做出損害甚至犧牲一方以拯救其他當(dāng)事方的選擇的極端情況,兩難決策(dilemmatic decisions)不能被標(biāo)準(zhǔn)化和編程化,具體決定應(yīng)視具體情況而定。
(3)強(qiáng)調(diào)通過技術(shù)防范倫理困境
政策不該將機(jī)器人或者學(xué)習(xí)算法置于人類生命決定者的角色,而應(yīng)積極探索其他解決思路。目前主要的思路,就是技術(shù)手段。通過技術(shù)防范倫理困境主要體現(xiàn)在三方面:
其一,自動(dòng)駕駛技術(shù)應(yīng)盡量避免事故的發(fā)生,對(duì)于兩難局面(dilemmatic conflict),應(yīng)該事先就做出防范此類風(fēng)險(xiǎn)的策略。因此,從車輛的設(shè)計(jì)和編程開始,就應(yīng)考慮以一種具備防御性和可預(yù)期的方式駕駛,并全面應(yīng)用和完善技術(shù),盡可能地降低可能給交通弱勢(shì)群體(vulnerable road users)造成的風(fēng)險(xiǎn)。
其二,公眾對(duì)于自動(dòng)化技術(shù)的研發(fā)情況享有知情權(quán),應(yīng)該以盡可能透明的形式整理出自動(dòng)駕駛車輛使用及編程準(zhǔn)則,并告知公眾,同時(shí)由專業(yè)的獨(dú)立機(jī)構(gòu)對(duì)其進(jìn)行審查。
其三,制造商或運(yùn)營商有義務(wù)在技術(shù)可行及合理的范圍內(nèi),對(duì)已交付的系統(tǒng)程序進(jìn)行監(jiān)督,并及時(shí)改進(jìn)和更新系統(tǒng),以確保和提高自動(dòng)駕駛車輛防范倫理風(fēng)險(xiǎn)的能力。
自動(dòng)駕駛技術(shù)未來發(fā)展繞不開人機(jī)倫理爭議
雖然當(dāng)前各國紛紛認(rèn)可自動(dòng)駕駛技術(shù)的法律地位,但將來是否以法律命令要求必須使用和普及這項(xiàng)技術(shù),現(xiàn)在還未達(dá)成共識(shí)。
2015年,伊隆·馬斯克在一次采訪中表示,汽車技術(shù)的進(jìn)步有朝一日可能使人類操作的汽車成為非法。這引出了一個(gè)問題,未來誰將成為合法的司機(jī),未來的法律政策在人機(jī)之間作何選擇。
雖然各國的自動(dòng)駕駛汽車法律政策無論是針對(duì)測(cè)試還是商用都強(qiáng)調(diào)人類司機(jī)的絕對(duì)控制權(quán),在自動(dòng)駕駛模式下是如此,在輔助駕駛模式下更是如此。但如果將來自動(dòng)駕駛技術(shù)的安全性可以達(dá)到非常高的安全水平,在所有的駕駛環(huán)境中都能夠作出比人類更優(yōu)的決策和判斷,使得交通事故成為小概率事件,法律政策又該作何選擇?屆時(shí),考慮到人類駕駛顯著的負(fù)外部性,允許人類駕駛將比允許自動(dòng)駕駛更不道德?
當(dāng)前來看,在人機(jī)切換的選擇下,將司機(jī)從駕駛活動(dòng)中解脫出來,又希望其在必要時(shí)介入,是一個(gè)充滿悖論的選擇。業(yè)界對(duì)困擾人機(jī)切換的“離手”(hands-off)問題尚未找到有效的解決方法。無論是輔助駕駛還是自動(dòng)駕駛,很多事故其實(shí)是在人機(jī)切換時(shí)司機(jī)反應(yīng)不及時(shí)、注意力不集中而導(dǎo)致的。未來的汽車設(shè)計(jì)是否可以不用再考慮人類駕駛這一因素,這既有來自當(dāng)前法律的障礙,也有來自于倫理的障礙。
德國等歐盟國家強(qiáng)調(diào)技術(shù)應(yīng)遵循個(gè)人自治原則,不應(yīng)限制個(gè)人行動(dòng)自由。德國自動(dòng)駕駛汽車倫理報(bào)告承認(rèn),具備防撞功能的高度自動(dòng)化系統(tǒng)能降低風(fēng)險(xiǎn)、增強(qiáng)安全性,這是社會(huì)和倫理層面需要鼓勵(lì)的,但如果以法律命令要求必須使用和普及這種技術(shù),則會(huì)引發(fā)“人受制于技術(shù)、人的主體地位受到貶損”等道德爭議。當(dāng)然,無人駕駛汽車的設(shè)計(jì)選擇還面臨著來自司機(jī)群體的壓力和反抗。想必隨著技術(shù)的成熟和普及應(yīng)用,自動(dòng)駕駛?cè)〈祟愸{駛、自動(dòng)駕駛優(yōu)先于人類駕駛等倫理道德爭議將熱烈起來。
無論如何,可以的肯定是,無人駕駛汽車的設(shè)計(jì)選擇將深刻影響汽車制造、保險(xiǎn)等相關(guān)產(chǎn)業(yè)和人類世界。雖然我們無法準(zhǔn)確預(yù)知未來,但卻可以選擇對(duì)自動(dòng)駕駛汽車未來發(fā)展路徑保持開放,可以選擇不把人類駕駛員這一緊箍咒加諸其上,讓技術(shù)和市場(chǎng)決定誰來主宰未來交通。
-
無人駕駛
+關(guān)注
關(guān)注
98文章
4015瀏覽量
120086 -
自動(dòng)駕駛
+關(guān)注
關(guān)注
782文章
13622瀏覽量
165952
原文標(biāo)題:未來的自動(dòng)駕駛能有“責(zé)任心”嗎?
文章出處:【微信號(hào):IV_Technology,微信公眾號(hào):智車科技】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論