沒錯,這種存在于科幻小說中的劇情如今照進(jìn)了現(xiàn)實(shí)生活中。近日,日本一個機(jī)器人提名為多摩市市長候選人,承諾將對所有市民一視同仁,不偏不倚,競選口號為“為每個人提供公平、均等的機(jī)會”。
機(jī)器人競選日本多摩市市長
初人們以為這僅是競選者的cosplay,而后來發(fā)現(xiàn),這是一個如假包換的機(jī)器人,其后AI候選人開通了自己的官方推特宣傳賬號,還給出了自己競選的政見:讓政治變得更加公平。
其后,機(jī)器人還列舉出了自己的幾大競選優(yōu)勢:
機(jī)器人沒有情緒也沒有欲望,在處理政務(wù)時,既不會夾帶私人感情也能防止腐??;
機(jī)器人不用休息,可以長時間高強(qiáng)度工作;
相對人類隨著年齡增長的記憶力退化,機(jī)器人可以始終保持大量信息存儲
。..。..
圖源:AImayor
無獨(dú)有偶,此前的一位來自新西蘭的機(jī)器人公務(wù)員“薩姆”也賺足了眼球,“薩姆”能夠回答市民提出的有關(guān)住房、教育和移民的問題,而且其自己曾“表示”,在做決定時將會考慮每個人的立場。
事實(shí)真的如此嗎?機(jī)器人當(dāng)市長這件事兒靠譜嗎?智能相對論分析師柯鳴認(rèn)為,想要機(jī)器人真正勝任市長一職,甚至讓機(jī)器人大范圍的替代傳統(tǒng)公務(wù)員,不得不思考這幾個問題。
機(jī)器人能否成為道德主體?
既然要辦事,那么就要為自己可能出現(xiàn)的錯誤承擔(dān)責(zé)任。但機(jī)器人是否能夠獨(dú)立承擔(dān)自身責(zé)任成為道德主體呢?我們先來看看著名的約翰·希爾勒(John Searle)“中文房間”實(shí)驗(yàn):
想象一位只說英語的人身處一個房間之中,在封閉的房間中其只攜帶一本寫有中文翻譯程序的書。寫著中文的紙片通過小窗口被送入房間中。根據(jù)Searle,房間中的人可以使用他的書來翻譯這些文字并用中文回復(fù)。雖然他完全不會中文,Searle認(rèn)為通過這個過程,房間里的人可以讓任何房間外的人以為他會說流利的中文。
“中文房間”實(shí)驗(yàn)
當(dāng)然,“中文房間”實(shí)驗(yàn)也引起了起了人們對于人工智能的一些爭論。
但在這場爭論中,人們并沒有排除人工智能體自主道德設(shè)計的可能性,而實(shí)際上人工智能體的設(shè)計與智能體作為道德主體的建立還是有區(qū)別的。關(guān)于意識、理解力等概念的認(rèn)識與如何才能使機(jī)器人的行為符合道德規(guī)范的實(shí)際議題基本上是不相干的。
那么,我們再來看看人類道德在機(jī)器人領(lǐng)域是否有一定的適用性。
道德規(guī)范在我們的日常生活中普遍存在,也存在于有組織的社會活動中,在馬克思看來,道德是對特定經(jīng)濟(jì)基礎(chǔ)反應(yīng)的上層建筑。
但由于人工智能科學(xué)日新月異,以及自主機(jī)器人廣泛的存在與應(yīng)用,自主機(jī)器人早已參與了我們繽紛多彩世界中的生活,世界不論怎樣都已不得不討論自主機(jī)器人的道德地位了。
溫德爾·瓦拉赫與科林·艾倫教授合著的《道德機(jī)器:如何讓機(jī)器人明辨是非》一書中對于機(jī)器人是否應(yīng)當(dāng)或者能夠擔(dān)負(fù)起道德責(zé)任、人工道德智能體(AMAs)提出了解決方案:
一種是自上而下式的理論進(jìn)路,是指通過將機(jī)器人所要掌握的知識與能力轉(zhuǎn)化為一系列算法規(guī)則,把這些規(guī)則植入機(jī)器人的“大腦”,從而獲得“認(rèn)知”;
另一種是自下而上式的發(fā)展進(jìn)路則是通過模擬孩童的成長過程,讓機(jī)器人在不同環(huán)境的相互作用中習(xí)得復(fù)雜行為與認(rèn)知的能力與知識。
從目前服務(wù)類(如公務(wù)員)機(jī)器人的表現(xiàn)來看,其深度學(xué)習(xí)、高度自動化等依然是其固有痼疾的基礎(chǔ)上,談?wù)摍C(jī)器人自身的道德主體性也許行之過早了。
機(jī)器人公務(wù)員真的能夠毫無偏見嗎?
從日本AI機(jī)器人競選市長到新西蘭機(jī)器人“薩姆”,無一不是宣揚(yáng)其具有公正性、無任何私情。
然而,在還未到達(dá)“超人工智能”的當(dāng)下,機(jī)器人難以形成自身思想之前,算法的偏見,似乎一直都是難以克服并為人詬病之處。
所謂的“算法偏見”是指在看似沒有惡意的程序設(shè)計中,卻不自覺的帶有設(shè)計人員或開發(fā)者的偏見,或者中擬定程序的過程中,采用的數(shù)據(jù)是具有一定偏見性的。
這種情況帶來的后果是巨大的,例如,Google搜尋被曲解、合格的考生無法進(jìn)入醫(yī)學(xué)院就學(xué)、聊天機(jī)器人在推特(Twitter)上散布種族主義和性別歧視信息等。
算法偏見造成最棘手的問題之一是,從事程序設(shè)計的工程師,即便本身沒有種族、性別、年齡歧視等傾向,也有可能造成偏見。AI本質(zhì)上就是為了自行學(xué)習(xí)而設(shè)計,有時它的確會出錯。
在AI招聘領(lǐng)域,一個最為典型的案例就是頂級管弦樂隊選角,古典音樂過去一直以男性為主,但在20世紀(jì)70年代引入了盲目的試鏡,這使頂級樂團(tuán)的女音樂家增加了五倍以上。
但是,這并沒有解決根本性的問題,第一批通過盲目試鏡入選的女性依然無法融入日常演奏,樂隊不得不尋找其他男性演奏家。
而我們的AI招聘:就像管弦樂隊的幕布一樣,機(jī)器學(xué)習(xí)是一種范式轉(zhuǎn)變,有可能消除長期存在的偏見,但它本身并不能解決幾個世紀(jì)的偏見。
回到機(jī)器人公務(wù)員領(lǐng)域,其工作內(nèi)容中也不乏“價值判斷”的部分,如材料完整度如何可以報賬?組織部評價評優(yōu)又是以何為尺度?而作為市長的日常事務(wù)的裁斷更是需要一定的標(biāo)準(zhǔn)。而目前的機(jī)器人深度學(xué)習(xí)能夠?qū)崿F(xiàn)的就是“算法裁決”,這又再次落入了算法偏見的窠臼之中。
服務(wù)類公務(wù)員機(jī)器人,你敢安心讓它上崗嗎?
事實(shí)上,大眾并不敢讓機(jī)器人完全代替公務(wù)員工作,包括市長。
AI市長在日本的競選中敗了,而且很徹底。截止至最后日本多摩市的公投結(jié)果顯示,“AI市長”僅獲4013票,較現(xiàn)任多摩市長阿部裕行獲得的34603票相距甚遠(yuǎn)。
《人工智能》里大衛(wèi)和媽媽的一段對話讓人印象深刻。當(dāng)大衛(wèi)詢問媽媽晚飯吃什么時,媽媽告訴它,機(jī)器人是不能吃飯的。大衛(wèi)卻說:“我知道,但是我喜歡和家人一起坐在餐桌上?!?/p>
正如劇中男主角所說,大衛(wèi)既然懂得愛,那他也應(yīng)該懂得恨。當(dāng)人工智能愈發(fā)先進(jìn)、愈發(fā)智能時,人類會不會被科學(xué)這把利刃劃破雙手?
正如當(dāng)下機(jī)器人動手術(shù)、機(jī)器人管理金融等領(lǐng)域,許多人對此依然無法完全信任。機(jī)器人終究是少了一點(diǎn)“人氣”,在公務(wù)員領(lǐng)域,沒有了面對面的噓寒問暖,只是例行公事地辦證取證,工作似乎也少了許多樂趣。
此外,機(jī)器人公務(wù)員的應(yīng)用范圍也是相當(dāng)狹窄的。從目前來看,隨著世界數(shù)據(jù)化程度不斷加深,與個人相關(guān)的數(shù)字類信息可由機(jī)器人逐步替代,如社保處理、出國簽證、納稅等;另一類型的公務(wù)員機(jī)器人則與富士康工場里機(jī)器人替代傳統(tǒng)的工人類似,通過生物識別確認(rèn)人員身份等類型的工作均可由機(jī)器人充當(dāng)。
但是,AI也未達(dá)到完美的程度。比如許多開發(fā)者經(jīng)常會把他們的偏見寫入人工智能項目,最近一項研究也發(fā)現(xiàn),AI的語言翻譯工具已經(jīng)具有種族主義和性別歧視的偏見。
阿西莫夫在《我,機(jī)器人》一書中曾提出機(jī)器人三定律:
第一定律:機(jī)器人不得傷害人類個體,或者目睹人類個體將遭受危險而袖手不管;
第二定律:機(jī)器人必須服從人給予它的命令,當(dāng)該命令與第一定律沖突時例外;
第三定律:機(jī)器人在不違反第一、第二定律的情況下要盡可能保護(hù)自己的生存。
顯然,目前機(jī)器人仍然遵循著這基本的要求,但隨著機(jī)器人技術(shù)的日益發(fā)展,會有更多類型的機(jī)器人出現(xiàn),當(dāng)真正機(jī)器人與人類倫理發(fā)生沖突時,如何協(xié)調(diào)人工智能與人類的關(guān)系也將成為當(dāng)今時代下必須重視的課題。
當(dāng)然,也希望霍金的預(yù)言永遠(yuǎn)也不會成為現(xiàn)實(shí)。
評論
查看更多