2018年12月18日,歐盟人工智能高級(jí)別專(zhuān)家組發(fā)布了一份人工智能道德準(zhǔn)則草案。在許多人擔(dān)憂(yōu)人工智能取代人類(lèi)、破壞倫理的大背景下,該草案旨在指導(dǎo)人們制造一種“可信賴(lài)的人工智能”。如何才能讓機(jī)器人更令人信賴(lài)?可否賦予它們道德修養(yǎng)呢?就此話(huà)題,作者采訪了美國(guó)匹茲堡大學(xué)科學(xué)哲學(xué)和科學(xué)史系杰出教授、西安交通大學(xué)長(zhǎng)江講座教授科林·艾倫。
問(wèn):什么是人工智能的“道德”?
艾倫:人工智能的“道德”,或者說(shuō)“道德機(jī)器”“機(jī)器道德”,有很多不同的含義。我將這些含義歸為3種。第一種含義中,機(jī)器應(yīng)具有與人類(lèi)完全相同的道德能力。第二種含義中,機(jī)器不用完全具備人類(lèi)的能力,但它們對(duì)道德相關(guān)的事實(shí)應(yīng)該具有敏感性,并且能依據(jù)事實(shí)進(jìn)行自主決策。第三種含義則是說(shuō),機(jī)器設(shè)計(jì)者會(huì)在最低層面上考慮機(jī)器的道德,但是并沒(méi)有賦予機(jī)器人關(guān)注道德事實(shí)并做出決策的能力。
就目前而言,第一種含義所設(shè)想的機(jī)器仍是一個(gè)科學(xué)幻想。所以,我在《道德機(jī)器》一書(shū)中略過(guò)了對(duì)它的探討,而更有興趣探討那些介乎第二、第三種意義之間的機(jī)器。當(dāng)下,我們希望設(shè)計(jì)者在設(shè)計(jì)機(jī)器人時(shí)能夠考慮道德因素。這是因?yàn)?,在沒(méi)有人類(lèi)直接監(jiān)督的情況下,機(jī)器人可能將在公共領(lǐng)域承擔(dān)越來(lái)越多的工作。這是我們第一次創(chuàng)造可以無(wú)監(jiān)督地運(yùn)行的機(jī)器,這也是人工智能倫理問(wèn)題與以往一些科技倫理問(wèn)題之間最本質(zhì)的區(qū)別。在這樣的“無(wú)監(jiān)督”情境中,我們希望機(jī)器能夠做出更道德的決策,希望對(duì)機(jī)器的設(shè)計(jì)不僅僅要著眼于安全性,更要關(guān)注人類(lèi)在乎的價(jià)值問(wèn)題。
問(wèn):如何讓人工智能具有道德?
艾倫:首先要說(shuō)的是,人類(lèi)自己還不是完全道德的,將一個(gè)人培養(yǎng)成有道德的人可不是一件容易的事。人類(lèi)的本質(zhì)都是出于利己主義做事,而不考慮他人的需求和利益。然而,一個(gè)道德的智能體必須學(xué)會(huì)克制自己的欲望以方便他人。我們現(xiàn)在構(gòu)建的機(jī)器人,其實(shí)并不具有自己的欲望,也沒(méi)有自己的動(dòng)機(jī),因?yàn)樗鼈儧](méi)有自私的利益。所以,訓(xùn)練人工智能和訓(xùn)練人的道德是有很大差異的。對(duì)機(jī)器的訓(xùn)練問(wèn)題在于,我們?cè)鯓硬拍苜x予機(jī)器一種能力,讓它敏感地察覺(jué)到哪些對(duì)人類(lèi)的道德價(jià)值觀而言是重要的事情。此外,機(jī)器需要認(rèn)識(shí)到它的行為會(huì)對(duì)人類(lèi)造成痛苦嗎?我認(rèn)為是需要的。我們可以考慮通過(guò)編程,使機(jī)器按照這種方式行事,且無(wú)需考慮怎么讓機(jī)器人優(yōu)先考慮他者利益,畢竟目前的機(jī)器還不擁有利己的本能。
問(wèn):發(fā)展人工智能的道德應(yīng)采用怎樣的模式?
艾倫:我們?cè)凇兜赖聶C(jī)器》中討論了機(jī)器道德發(fā)展模式,認(rèn)為“自上而下”和“自下而上”相混合的模式是最佳答案。首先談一談“自上而下”和“自下而上”意味著什么。我們以?xún)煞N不同的方式使用這兩個(gè)術(shù)語(yǔ)。一個(gè)是工程的視角,也就是一些技術(shù)和計(jì)算機(jī)科學(xué)的視角,例如機(jī)器學(xué)習(xí)和人工進(jìn)化,而另一個(gè)則是倫理學(xué)視角。機(jī)器學(xué)習(xí)和人工進(jìn)化并不從任何原則開(kāi)始,它們只是試圖使機(jī)器符合特定類(lèi)型的行為描述,并且在給定輸入使機(jī)器以這種方式行事時(shí),它的行為能夠符合特定類(lèi)型,這叫“自下而上”。與之相比,“自上而下”的方法則意味著一個(gè)清晰的、將規(guī)則賦予決策過(guò)程的模式,并且試圖寫(xiě)出規(guī)則來(lái)指導(dǎo)機(jī)器學(xué)習(xí)。我們可以說(shuō),在工程領(lǐng)域中,“自下向上”是從數(shù)據(jù)當(dāng)中學(xué)習(xí)經(jīng)驗(yàn),而“自上向下”則是用確定的規(guī)則進(jìn)行預(yù)編程。
在一些倫理學(xué)領(lǐng)域也有這種“上下之別”,比如康德,還有更早的功利主義學(xué)派,如邊沁和密爾,他們就更像是“自上而下”。這些學(xué)者試圖制定規(guī)則以及普遍原則,以便通過(guò)這些“條條框框”判斷出一個(gè)行為是不是道德的。這樣對(duì)康德的道德律令而言,其涵義就包含著多項(xiàng)具體規(guī)則,例如“不撒謊”。
亞里士多德對(duì)于道德持有相當(dāng)不同的觀點(diǎn)。他認(rèn)為,道德應(yīng)當(dāng)是一個(gè)人通過(guò)訓(xùn)練而習(xí)得的。因此,亞里士多德的觀點(diǎn)就更傾向于一種“自下向上”的方法,這種方法就是一個(gè)人通過(guò)練習(xí)變得好、善良、勇敢。當(dāng)踐行道德的時(shí)候,我們就稱(chēng)之為美德倫理。通過(guò)這樣做,一個(gè)人會(huì)變得更具美德、會(huì)有更好的行為。
我認(rèn)為亞里士多德的看法更正確。因?yàn)槿祟?lèi)并不是靠“瞎碰瞎撞”去養(yǎng)成習(xí)慣的,也會(huì)對(duì)習(xí)慣進(jìn)行思考,并思考需要哪些原則。亞里士多德注意到,在原則灌輸和習(xí)慣訓(xùn)練之間存在著一種相互作用。我們認(rèn)為,這種途徑同樣也適用于人工道德智能體的構(gòu)建。在很多實(shí)時(shí)決策的情境下,我們并沒(méi)有足夠的時(shí)間來(lái)反思行為背后的理論或原則含義。但是,我們還可以從錯(cuò)誤中學(xué)習(xí),因?yàn)榭梢允褂眠@些“自上向下”的原則重新評(píng)估我們所做的事情,之后再進(jìn)行調(diào)整和重新訓(xùn)練。
這就是混合方法的基本思路,我認(rèn)為它確實(shí)符合人類(lèi)的情形。舉個(gè)例子,當(dāng)你還是個(gè)孩童時(shí),你對(duì)兄弟姐妹做了什么不好的事情,父母會(huì)說(shuō)“如果這種事情發(fā)生在你身上,你會(huì)有何感受呢”,是吧?在許多道德傳統(tǒng)中都有這樣一種原則:“以你自己對(duì)待自己的方式,或是你希望被別人對(duì)待的方式去對(duì)待他人”,有時(shí)人們也稱(chēng)這一原則為黃金法則。所以,你不僅僅被告知不要那樣做,也并不僅僅因此而受罰,實(shí)際上你會(huì)被告知去思考這樣做為何是好的或不好的,這就是“自上而下”與“自下而上”的結(jié)合。
問(wèn):應(yīng)該限制人工智能的發(fā)展嗎?
艾倫:我認(rèn)為這取決于應(yīng)用領(lǐng)域。我現(xiàn)在并不擔(dān)心機(jī)器人或人工智能會(huì)取代人類(lèi),如果情況變得危險(xiǎn),我們是有能力去阻止它的。比如說(shuō)突然發(fā)現(xiàn)機(jī)器人可以生產(chǎn)機(jī)器人,我們要做的無(wú)非就是切斷電源。
當(dāng)然,確實(shí)存在一些應(yīng)當(dāng)停止人工智能應(yīng)用的地方,其中一個(gè)就是人們正致力開(kāi)發(fā)的軍事領(lǐng)域。從人類(lèi)的歷史來(lái)看,一旦有人構(gòu)想出一個(gè)武器,那將很難阻止另一些人的欲望及其為之奮斗的野心。核武器和無(wú)人機(jī)就是很好的例子。
但是,我不認(rèn)為應(yīng)該阻止其他形式的人工智能發(fā)展。我們需要思考技術(shù)對(duì)生活帶來(lái)了怎樣的后果,比如說(shuō),自動(dòng)駕駛汽車(chē)會(huì)使行人過(guò)馬路更困難,還是更加容易呢?自動(dòng)駕駛汽車(chē)面臨行人過(guò)馬路的情形時(shí)應(yīng)附加什么樣的權(quán)限呢?無(wú)人車(chē)看到行人能不能安全停下,還是說(shuō)它像人類(lèi)司機(jī)一樣,依然有可能撞到行人?這些都是我們需要對(duì)人工智能進(jìn)行思考的問(wèn)題。無(wú)人駕駛汽車(chē)不僅不該停止發(fā)展,而是應(yīng)該投入更多。
問(wèn):機(jī)器人會(huì)變得更好還是更危險(xiǎn)?
艾倫:過(guò)去10年來(lái),人工智能在某些方面的飛速發(fā)展令人吃驚,但算不上滿(mǎn)意。在我看來(lái),未來(lái)10年內(nèi)無(wú)人駕駛汽車(chē)投放到真實(shí)路況中的可能性不大。蘋(píng)果公司推出了一個(gè)可以交談的智能體Siri,但以現(xiàn)在的情形來(lái)看,Siri很糟糕不是嗎?所有我使用過(guò)的類(lèi)似產(chǎn)品,諸如Alexa,GoogleTalk,都不盡人意。所以我現(xiàn)在不會(huì)從倫理的視角對(duì)人工智能的發(fā)展過(guò)于擔(dān)心。這些企業(yè)居然真的發(fā)布了這些產(chǎn)品,但更令我驚奇的是,人們居然在很大程度上調(diào)整自身行為以適應(yīng)人工智能,因?yàn)槟阒腊裇iri當(dāng)成正常人來(lái)交談的話(huà),它永遠(yuǎn)不會(huì)明白你的意思。人類(lèi)在做出調(diào)整,并非機(jī)器,因?yàn)闄C(jī)器并不是一個(gè)自適應(yīng)的系統(tǒng)?;蛘哒f(shuō),它比人類(lèi)具有更弱的適應(yīng)性。這是最令我擔(dān)心的。
當(dāng)然,我所擔(dān)心的并不是機(jī)器做的事情超出人類(lèi)的預(yù)想,而是它們可能改變并限制我們的行為。AlphaGo贏了圍棋,但并未改變我們的日常生活,所以沒(méi)什么好擔(dān)心的。我擔(dān)心人們用愚笨的方式與機(jī)器交談,以便機(jī)器按照我們的想法做事。要知道,這具有許多潛在的危險(xiǎn)。它潛移默化改變我們的習(xí)慣行為,使我們對(duì)某些類(lèi)型的錯(cuò)誤更具容忍性而對(duì)有些錯(cuò)誤卻更加苛刻。人們會(huì)預(yù)料到并且能容忍人類(lèi)所犯的道德錯(cuò)誤,但是,人類(lèi)可能不會(huì)容忍這樣的錯(cuò)誤在機(jī)器上發(fā)生。經(jīng)過(guò)規(guī)劃考慮后仍對(duì)他人造成傷害的決定如果發(fā)生在機(jī)器上,會(huì)比發(fā)生在人類(lèi)身上更不能令人容忍。在過(guò)去10年內(nèi),這種改變已經(jīng)發(fā)生了。即使軟件會(huì)變得更好,機(jī)器也會(huì)變得更好,但是永遠(yuǎn)都存在著讓人類(lèi)去適應(yīng)機(jī)器而非真正提高人類(lèi)能力的危險(xiǎn)。
-
機(jī)器人
+關(guān)注
關(guān)注
210文章
28133瀏覽量
205925 -
人工智能
+關(guān)注
關(guān)注
1791文章
46706瀏覽量
237221
原文標(biāo)題:人類(lèi)能造出有道德的機(jī)器人嗎?
文章出處:【微信號(hào):jingzhenglizixun,微信公眾號(hào):機(jī)器人博覽】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論