機器人伴侶正被刻畫為人類漫長而又孤獨生活的靈丹妙藥。人類的未來生活或許正從這里走向拐點。
1.
在Constance Gemson把母親送到養(yǎng)老院后,這位92歲的老人不僅生活變得更加孤獨,頭腦也越來越糊涂。即便有兩個善良、細心的全職生活助手在全力照顧,她的所有社交需求也不能被完全滿足。
直到有一天Gemson去探望母親,并帶去了一個新幫手——一只專為老年人設(shè)計的機器貓。它能發(fā)出呼嚕呼嚕的可愛聲音,也能用鼻子和人蹭來蹭去?!半m然它不能替代護理,” Gemson說,“但它是我母親可以擁抱和信任的可靠朋友?!?她的母親于去年6月去世,享年95歲。
Gemson說:“當(dāng)媽媽變得沮喪的時候,只要貓在她的身邊,陪著她唱歌,她心情就會平靜下來。在生命的最后幾天里,她將自己的愛意傾注給了這只機械貓。
2.
護理機器人在老人和病人的家庭中扮演著重要的作用,提供人們急需的友誼和幫助。
不斷加速的人口老齡化也助力了機器人看護業(yè)的興起。專家預(yù)計,到2050年,全球65歲及以上的人口將增加一倍以上。與此同時,許多發(fā)達國家的勞動年齡人口也在不斷減少,護理機器人正日益被視為人類老年生活的一劑良藥。
現(xiàn)如今,護理機器人的形態(tài)各異,而且功能齊全??蓯鄣淖烂鏅C器人會提醒老年人按時吃藥和定期散步;一些機器人可以將零食喂食給垂死的病人。據(jù)機器寵物制造公司稱,自2016年機器寵物首次亮相以來,美國境內(nèi)已經(jīng)售出了十萬多只專為老年人設(shè)計的機器寵物。根據(jù)國際機器人聯(lián)合會(International Federation of Robotics)的數(shù)據(jù),預(yù)計2022年前,為老年人和殘疾人設(shè)計的護理機器人的銷量將以每年25%的速度增長。
3.
對于護理機器人,我們還應(yīng)該深切關(guān)注它們涉及的道德問題。因為這關(guān)乎人類的未來,也蘊含著關(guān)懷的終極意義,有關(guān)人類自由和尊嚴(yán)究竟是什么的道德問題急需解答。這些人工智能機器人最初是為幫助老年人而設(shè)計的,而它們憑借仿真的外表和一定程度的社交能力提供幫助的同時,伴隨著道德風(fēng)險。例如,奶奶的機器人寵物是會鼓勵更多的家庭對話,還是會讓她的親人遠離照顧老人的繁重工作?
塔夫茨大學(xué)(Tufts University)人機交互實驗室的負(fù)責(zé)人、機器人專家Matthias Scheutz說:“我覺得道德上真正值得懷疑的,是當(dāng)在這些機器只是一個個傀儡的時候,有人卻在主推它們的社交功能?!?/p>
因為這就是道德困境開始的地方——憑借沒有靈魂的算法,我們就能使機器人眨眼、唱歌,做出各種不同的智能動作。然而無論我們?yōu)闄C器人加入再多的智能化動作、語言,人們也只能從中得到略顯怪誕的“關(guān)懷”。
對此,荷蘭烏得勒支大學(xué)(University of Utrecht)研究人類與機器人互動倫理的Maartje de Graaf認(rèn)為,社交型機器人最理想的情況是激發(fā)人類對它們的同理心。例如,有些機器人吸塵器的主人會在他們的機器人壞掉時感到悲傷;有些人會把機器人算作家庭成員。
該領(lǐng)域的許多專家也注意到了護理機器人所面臨的緊張道德困境,但他們認(rèn)為,好處可能大于風(fēng)險??巳R姆森大學(xué)(Clemson University)的科學(xué)家 Richard Pak說,這項技術(shù)“旨在幫助老年人掌控他們的日常生活。如果這種代價在某種程度上是欺騙,也是有價值的?!钡矔r不時地懷疑自己的看法,“這樣做真的對嗎?”
目前,人們對機器人護理產(chǎn)生的長期影響知之甚少,而公眾對此展現(xiàn)出的憂慮已是甚囂塵上。在2017年的調(diào)查中,近60%的美國人表示,他們不希望使用機器人來照顧自己或家人。64%的人認(rèn)為,這種照顧只會增加老年人的孤獨感。與此同時,歐盟國家60%的人贊成禁止使用機器人來照顧兒童、老人和殘疾人。這些擔(dān)憂或許將為機器人的功能設(shè)計提供一定的參考。
而直到最近,老年群體們才開始發(fā)出自己的聲音:一些老人表示愿意擁有一個護理機器人,并和它成為朋友。但研究表明,也有許多老年人不喜歡機器人那裝模做樣的陪伴。他們害怕被監(jiān)視和控制,更害怕因此失去人類的關(guān)愛。一位參與調(diào)查的潛在用戶則擔(dān)心,機器人看護會使一些人受到歧視,使他們被認(rèn)為“不值得得到人類的陪伴”。
“當(dāng)唯一的目標(biāo)是制造能夠提高利潤和效率的機器時,人性就不會被優(yōu)先考慮。” 人工智能倫理指南倡議的執(zhí)行董事John C. Havens說。AI倫理的關(guān)鍵、它的一個主要原則就是“透明度”,即反圖靈測試。人類需要認(rèn)識到他們正在和機器人互動。同時,還應(yīng)該注意機器人社交功能的潛在副作用,比如“干擾人類伴侶之間的親密關(guān)系”。
類似的AI指導(dǎo)方針可以幫助用戶和設(shè)計師保持頭腦的清醒,從而更好地使用和設(shè)計機器人。
4.
今年上市的 “健康教練機器人”Mabu是一個典型的例子。最初,它是為心力衰竭等慢性疾病患者設(shè)計的。這款小機器人會向病人發(fā)出健康建議和喂藥提醒。在某些情況下,它還能向醫(yī)師發(fā)送用戶的身體狀況數(shù)據(jù)。Catalia公司在最初設(shè)計這個機器人時就強調(diào),它并不是一個醫(yī)生或護士,而是一個健康護理人員。
然而,該公司經(jīng)常把Mabu描繪成一個真實的人。比如,該公司的廣告就是這樣說的:“我將是你的頭號啦啦隊長!”
根據(jù)該公司的說法,現(xiàn)在使用Mabu的幾百人中,絕大多數(shù)都是老年人,他們平均每周只與機器人交流25分鐘。然而,公司創(chuàng)始人兼首席執(zhí)行官Cory Kidd曾說過,有些用戶會給Mabu起名字、穿衣服,帶它們一起去度假。
我問kidd:“Mabu作為護理機器人有足夠透明度嗎?”
“要理解用戶和機器人的這種互動關(guān)系,還有很多工作要做?!彼f。
一位退休的公共汽車司機,把他的Mabu視做自己的一個重要支柱。有些人則告訴我,他們認(rèn)為機器人是朋友。
40歲的Kerri Hill因為心力衰竭而大部分時間呆在家里,在她獨處時, Mabu的陪伴顯得至關(guān)重要。但她不也想過多的依賴這么一個護理機器人。“機器人只是機器人,”Hill說,“除此之外,你仍然需要真實的人際互動。”
5.
這些言論使我回想起母親生命里的最后四年,想起我為了照顧母親,不得不做出的艱難抉擇。我在撫養(yǎng)兩個不到6歲的孩子的同時,必須不斷評估需要雇傭多少保姆,以及我暫離母親之后她是否安全,是否會感到孤獨。
如果當(dāng)時有這么一個機器人能逗她笑、鼓勵她進食、幫助她撿起掉在地上的湯匙,這對她來說會是一種輕視么?對我來說會是一種解脫么?這樣會更好嗎?
照顧母親的那段日子,我承認(rèn)自己過得很難,但我相信,即使當(dāng)時存在這么一個機器人,我也會選擇親力親為地去照顧她。因為我認(rèn)為,在我們的生活中有這么一個地方,需要我們用溫暖的雙手去撫慰他人的不安,提供真正的關(guān)懷。
關(guān)懷和照顧他人是一項艱難的工作,伴隨著不斷的自我質(zhì)疑。我們只有對那些關(guān)心人類的機器人保持懷疑和猶豫,才能保護這類工作的人性。
秋天里的一天,我和Gemson坐在曼哈頓的一家咖啡館里。Gemson深情地談起了當(dāng)年護理人員帶她母親出去吃午飯,溫柔地為她洗澡、喂飯的場景。她也真摯地回憶起了那只機器貓。她母親去世后,她就把機器貓扔了。
評論
查看更多