愚蠢的人類 阿西莫夫三定律也救不了你們

2014年04月28日 09:56 來(lái)源:果殼網(wǎng) 作者:佚名 我要評(píng)論(0)

標(biāo)簽:機(jī)器人(199021)人工智能(227935)

  70年前,阿西莫夫提出他著名的機(jī)器人三定律,來(lái)保證機(jī)器人會(huì)友善待人。雖然最早提出時(shí)這只是個(gè)文學(xué)手法,但是有些人認(rèn)為這些定律是現(xiàn)成的方案,能挽救我們免于機(jī)器末日。

  那么,阿西莫夫的安保措施成功經(jīng)歷了時(shí)間的考驗(yàn)嗎?專家的回答是:沒(méi)有。

  

  伊薩克·阿西莫夫(1920-1992),20世紀(jì)最有影響力的科幻作家之一

  1942年,阿西莫夫在短篇小說(shuō)“Runaround”(《環(huán)舞》)中首次提出了三定律:

  一、機(jī)器人不得傷害人類,或因不作為使人類受到傷害。

  二、除非違背第一定律,機(jī)器人必須服從人類的命令。

  三、除非違背第一及第二定律,機(jī)器人必須保護(hù)自己。

  但后來(lái),阿西莫夫又加入了一條新定律:第零定律。

  零、機(jī)器人不得傷害人類整體,或因不作為使人類整體受到傷害。

  阿西莫夫的科幻設(shè)定里,機(jī)器人三定律是植入到近乎所有機(jī)器人軟件底層里,不可修改不可忽視的規(guī)定,絕不僅僅是“建議”或者“規(guī)章”。

  但顯然這不是一個(gè)物理定律,所以現(xiàn)實(shí)中的機(jī)器人并不遵守——至少暫時(shí)如此。

  

  在《環(huán)舞》里,負(fù)責(zé)水星開(kāi)礦任務(wù)的機(jī)器人在第二和第三定律的沖突中陷入“焦慮”,開(kāi)始不停地繞圈子

  正如阿西莫夫許多小說(shuō)里顯示的,這三條定律的缺陷、漏洞和模糊之處不可避免會(huì)導(dǎo)致一些奇怪的機(jī)器人行為。比方說(shuō),這三條定律連何為“人”、何為“機(jī)器人”都沒(méi)有良好定義。而且,如果機(jī)器人獲取的信息不完整,它們完全可以無(wú)意中打破定律。更何況,你要怎么阻止一個(gè)智力超群的機(jī)器人自己把定律改掉呢?

  因此,很多人都認(rèn)為這只是單純的推動(dòng)劇情用的寫(xiě)作手法而已,但是,1981年,阿西莫夫本人在“Compute!”里說(shuō):

  “……有人問(wèn),我是不是覺(jué)得我的三定律真的可以用來(lái)規(guī)范機(jī)器人的行為——等到機(jī)器人的靈活自主程度足以在不同的行為方式中選擇一種的時(shí)候。我的答案是:‘是的,三定律是理性人類對(duì)待機(jī)器人(或者任何別的東西)的唯一方式。’”

  好吧,三十年過(guò)去了,我們的機(jī)器人——準(zhǔn)確地說(shuō),是操縱機(jī)器人的人工智能——真的在逼近阿西莫夫所說(shuō)的那一天。事實(shí)上,人工智能恐怕再過(guò)一段時(shí)間就要抵達(dá)技術(shù)奇點(diǎn),發(fā)生爆炸式增長(zhǎng),徹底把人類智能甩在后面。

  而如果這樣一個(gè)超級(jí)智能的程序編得不夠好,或者它不在乎人類的需求,那么對(duì)我們而言就是徹頭徹尾的災(zāi)難。我們必須保證它是安全的。

  那么,阿西莫夫三定律可以幫我們嗎?我們采訪了兩位人工智能理論研究者:本·格策爾(Ben Goertzel),艾迪亞金融預(yù)測(cè)公司首席科學(xué)家;路易·海爾姆(Louie Helm),機(jī)器智能研究所代理主任。

  他們的觀點(diǎn)是,阿西莫夫三定律完全不能勝任,而如果我們想保證超級(jí)智能的安全,我們需要一些全然不同的東西。

  

  電影《我,機(jī)器人》就是根據(jù)阿西莫夫的同名小說(shuō)集改編的,機(jī)器人三定律是其核心

  阿西莫夫的未來(lái)

  “我認(rèn)為阿西莫夫預(yù)想的機(jī)器人過(guò)不了多久就會(huì)實(shí)現(xiàn),”格策爾說(shuō),“但是在他大部分小說(shuō)里,看起來(lái)人類級(jí)別的機(jī)器人好像就是機(jī)器人學(xué)和AI工程的頂峰了。事實(shí)看起來(lái)并非如此。在抵達(dá)阿西莫夫式類人機(jī)器人之后,很快超人AI也會(huì)成為可能?!?/p>

  典型的阿西莫夫未來(lái)里,大部分生活都如?!徊贿^(guò)多了些人形智能機(jī)器人走來(lái)走去而已。“但這種未來(lái)不太可能實(shí)現(xiàn)——或者就算是它實(shí)現(xiàn)了,也只會(huì)存在很短的時(shí)間,”他說(shuō)。

  在海爾姆看來(lái),機(jī)器人根本無(wú)關(guān)緊要。

  “我認(rèn)為對(duì)人類來(lái)說(shuō)最主要的問(wèn)題,不是一大群半智能人形機(jī)器人所需的道德規(guī)范,而是高階人工智能最終會(huì)出現(xiàn)(不管有沒(méi)有軀體),其功能遠(yuǎn)遠(yuǎn)超過(guò)人類水平,”海爾姆說(shuō)?!叭祟愒缤肀仨氁邕^(guò)超級(jí)智能這個(gè)坎。這也是為何開(kāi)發(fā)安保措施如此重要。在我看來(lái),機(jī)器人、仿生人、模擬大腦什么的都無(wú)關(guān)緊要,我們最多和它們相處一二十年,之后就要面對(duì)真正的大問(wèn)題——為超級(jí)智能開(kāi)發(fā)倫理道德?!?/p>

  好的開(kāi)端?

  鑒于阿西莫夫三定律是第一個(gè)真正試圖解決人工智能行為問(wèn)題的方案,那么就算是超級(jí)人工智能,它能不能也起到一定效果——或者至少有所啟迪呢?

  “老實(shí)說(shuō),我真沒(méi)從機(jī)器人三定律里獲得什么靈感,”海爾姆說(shuō)?!皺C(jī)器倫理學(xué)的共識(shí)是,它無(wú)法成為機(jī)器倫理的合適基礎(chǔ)?!?/p>

  三定律的確廣為人知,但現(xiàn)實(shí)中無(wú)論是AI安全研究者還是機(jī)器倫理學(xué)家,都沒(méi)有真的使用它作為指導(dǎo)方案。

  “原因之一是這套倫理學(xué)——我們稱之為‘義務(wù)倫理學(xué)’(deontology)——作為倫理基礎(chǔ)是行不通的。依然有幾個(gè)哲學(xué)家試圖修復(fù)義務(wù)倫理學(xué)體系,但同一批人常常也熱衷于‘智能設(shè)計(jì)’或者‘神命論’之類的東西,”海爾姆說(shuō),“沒(méi)幾個(gè)人嚴(yán)肅對(duì)待他們?!?/p>

  愚蠢的人類 阿西莫夫三定律也救不了你們

  按照義務(wù)倫理學(xué),一項(xiàng)行為合不合道德,只決定于行為本身是否符合幾條事先確定的規(guī)范,和行為的結(jié)果、動(dòng)機(jī)等等完全無(wú)關(guān)

  他總結(jié)了三定律的幾處缺陷:

 ?。?內(nèi)在的對(duì)抗性

 ?。?基于有缺陷的倫理框架(義務(wù)倫理)

  - 不被研究者接受

 ?。?哪怕在科幻文學(xué)里也會(huì)出問(wèn)題

  格策爾表示贊同?!霸O(shè)立三定律的目的就是以有趣的方式出問(wèn)題,這也正是為何圍繞它們的小說(shuō)如此有趣,”他說(shuō),“所以三定律只在這個(gè)意義上有指導(dǎo)作用:它告訴我們,用具體的定律來(lái)規(guī)范道德倫理是必定行不通的?!比稍诂F(xiàn)實(shí)中完全無(wú)法運(yùn)作,因?yàn)槠渲械男g(shù)語(yǔ)太模糊,受制于主管解釋。

  歧視機(jī)器人?

  三定律的另一個(gè)側(cè)面是顯而易見(jiàn)的基質(zhì)沙文主義——按照定律,就因?yàn)闄C(jī)器人的軀體是硅做的,不是血肉之軀,他們就必須遵從人類的需求,不管他們有多么強(qiáng)大的能力也沒(méi)用。

  “百分之百,”格策爾說(shuō),“阿西莫夫的未來(lái)社會(huì)是光天化日的基質(zhì)沙文主義,人類擁有的權(quán)利比人形機(jī)器人的權(quán)利更多。三定律的目的就是維持這種社會(huì)秩序。”

  海爾姆的視角略有不同,他認(rèn)為,如果我們真的身處這樣的場(chǎng)景,那我們已經(jīng)走得太遠(yuǎn)了。

  “我認(rèn)為設(shè)計(jì)有意識(shí)、有自我覺(jué)知的人工智能或機(jī)器人,本身就是很不明智的,”海爾姆說(shuō),“而且,雖然那些電影小說(shuō)里AI研究者常?!恍⌒摹透愠隽擞幸庾R(shí)的人工智能,我認(rèn)為這在現(xiàn)實(shí)中不可能發(fā)生。人們不可能純靠好運(yùn)碰上意識(shí),需要大量的努力和知識(shí)才行,而且大部分AI研究者都是遵循倫理的人,他們會(huì)避免創(chuàng)造出哲學(xué)家所謂‘有道德意義的存在體’。畢竟,他們完全可以創(chuàng)造出不具有內(nèi)在道德問(wèn)題的高階思考機(jī)器嘛?!?/p>

  因此,關(guān)于設(shè)計(jì)不對(duì)稱定律、管理機(jī)器人價(jià)值的問(wèn)題,海爾姆并不太在意。他認(rèn)為未來(lái)的AI研究者只需少許道德約束即可。

  “話雖如此,我認(rèn)為人類也是原子組成的,所以理論上也可以人工合成一種生命形態(tài)或者機(jī)器人,讓它擁有道德意義,”海爾姆說(shuō),“我希望沒(méi)人會(huì)真的這么做,大部分人應(yīng)該也不會(huì)做,但恐怕不可避免地,總會(huì)有些好炫耀的傻瓜為了追名逐利而第一個(gè)做些什么事情——任何事情——哪怕是如此不道德、如此愚蠢的事情?!?/p>

  

  但是,如果真的出現(xiàn)了和人類一樣聰明一樣可愛(ài)一樣有能力自主決策的機(jī)器人,我們還應(yīng)該因?yàn)樗麄兪恰叭嗽臁钡亩唤o他們平等權(quán)利嗎?

  三定律2.0?

  三定律有顯而易見(jiàn)的缺陷,能否用修正或者補(bǔ)丁之類的挽救它呢?而且確實(shí)有很多科幻作家這么嘗試過(guò),多年來(lái)有不少修正版本。

  “不,”海爾姆說(shuō),“三定律不會(huì)有補(bǔ)丁。不存在能挽救它的辦法?!?/p>

  除了太不自洽、無(wú)法實(shí)現(xiàn)之外,海爾姆說(shuō),三定律本質(zhì)上是對(duì)抗性的。

  “我更偏愛(ài)的機(jī)器倫理路線是更合作性的、更自我一致的,而且更多使用間接規(guī)范性,這樣就算系統(tǒng)一開(kāi)始誤解了或者編錯(cuò)了倫理規(guī)范,也能恢復(fù)過(guò)來(lái),抵達(dá)一套合理的倫理準(zhǔn)則?!焙柲氛f(shuō)。

  格策爾呼應(yīng)了海爾姆的觀點(diǎn)。

  “定義一套倫理原則、把它作為機(jī)器倫理的核心路線,恐怕毫無(wú)希望——如果我們討論的是靈活的人工通用智能(AGI)的話,”他說(shuō),“如果AGI擁有直覺(jué)、靈活、適應(yīng)性的倫理觀,那這些倫理原則對(duì)它來(lái)說(shuō)可以是有用的基本指南,幫助它使用它自己的倫理直覺(jué)。但這樣的話,這些原則就不是它的核心了,只是一個(gè)側(cè)面。人類就是這樣的——我們學(xué)會(huì)的倫理規(guī)范是有用的,但用法只是指引我們的倫理本能和直覺(jué)而已?!?/p>

  如何建造安全AI?

  既然定律路線行不通,那么應(yīng)該怎樣保證AI不會(huì)毀滅人類呢?

  “AGI研究者里,很少有人相信能造出一個(gè)百分之百安全毫無(wú)隱憂的系統(tǒng),”格策爾說(shuō),“但這對(duì)于大部分人來(lái)說(shuō)并非什么困擾,因?yàn)檎f(shuō)到底,人生中也沒(méi)什么東西是百分之百的?!?/p>

  格策爾相信,一旦我們?cè)斐隽嗽缙贏GI系統(tǒng),或者至少是比我們現(xiàn)有東西強(qiáng)大得多的AGI原型機(jī),我們就可以通過(guò)研究和實(shí)驗(yàn)獲得多得多的AGI倫理學(xué)信息。

  “希望這種方式下我們能建立良好的AGI倫理學(xué),讓我們能更清晰地理解這個(gè)話題,”他說(shuō),“但目前為止,研究AGI倫理理論還是很困難的,因?yàn)槲覀兗葲](méi)有很好的倫理理論,也沒(méi)有很好的AGI理論?!?/p>

  他又說(shuō):“對(duì)于那些看《終結(jié)者》看多了的人,這聽(tīng)起來(lái)估計(jì)有些嚇人——我們?cè)噲D建立AGI,但卻認(rèn)為只有在我們?cè)囼?yàn)過(guò)原始AGI系統(tǒng)之后才能得到相關(guān)的堅(jiān)實(shí)理論。然而,絕大部分激進(jìn)的進(jìn)展都是這么發(fā)生的?!?/p>

  

  電影《終結(jié)者》可能是最著名的機(jī)器人末日?qǐng)鼍爸唬焊叨劝l(fā)達(dá)的機(jī)器人和人類開(kāi)戰(zhàn),毀滅了大部分人類文明

  “當(dāng)一群聰明的原始人發(fā)明語(yǔ)言的時(shí)候,他們是等到一套成熟的語(yǔ)言形式理論出現(xiàn)、用它預(yù)測(cè)了語(yǔ)言引入社會(huì)后的未來(lái)影響,然后才動(dòng)手的嗎?”

  這一點(diǎn)上兩位受訪者又取得了一致。海爾姆所在的機(jī)器智能研究所花了很長(zhǎng)時(shí)間考慮這件事情——簡(jiǎn)短的答案是,這還不是個(gè)工程學(xué)問(wèn)題。需要更多研究。

  “這么說(shuō)是什么意思?我在機(jī)器智能研究所的同事盧克·穆豪森總結(jié)得很好。他說(shuō),問(wèn)題總是從哲學(xué)領(lǐng)域移到數(shù)學(xué)領(lǐng)域再到工程領(lǐng)域,”海爾姆說(shuō),“哲學(xué)提出有意義的問(wèn)題,但這些問(wèn)題常常太不精確,沒(méi)人能知道一個(gè)新答案是否意味著我們又進(jìn)了一步。但如果我們能把重要的哲學(xué)問(wèn)題——智能,本體,價(jià)值——復(fù)述成足夠精確的數(shù)學(xué),要么對(duì)要么錯(cuò);接下來(lái)就可以建立模型,在此基礎(chǔ)上成功擴(kuò)展,總有一天能夠用作真實(shí)世界的工程目的。”

  海爾姆說(shuō),這是科學(xué)和哲學(xué)里的一個(gè)真正難題,但是進(jìn)步依然是可能的:“我懷疑哲學(xué)能不能只靠自己解決它,畢竟過(guò)去三千年里它似乎沒(méi)有什么特別顯著的進(jìn)展,但是我們也不能憑現(xiàn)有這點(diǎn)粗淺的了解就去編程。我們還需要大量的理論研究。”