編者按:2016年除了人工智能、虛擬現(xiàn)實技術(shù)受到了極大的關(guān)注,商用機器人逐漸出現(xiàn)在我們生活中,家庭陪伴機器人也越來越多,可以看到未來機器人市場前景廣闊,但也難免面臨挑戰(zhàn)。今天小編為大家推薦一篇去年的文章,該文章詳細介紹了目前機器人面臨的十個挑戰(zhàn)。
現(xiàn)在的機器人已經(jīng)能進行各種各樣的工作了,也具有了一定程度的人工智能,但是,像“查派”一般的機器人似乎還遙遙無期,那么,哪些問題是機器人面臨的最為緊迫的挑戰(zhàn)呢?
一、開辟道路
在我們的生活中,從A地點移動到B地點也許是我們每天都在做的事情,而且是一件極其容易的事情,我們有不同的路徑可以到達不同的地點,可以根據(jù)道路的狀況甚至是隨個人的心情來選擇到達地點的路徑。而對一個機器人來說,主要是通過導(dǎo)航以及預(yù)先的設(shè)置來進行點對點的定位。但是,當(dāng)預(yù)設(shè)的環(huán)境被改變后,可能就變得有些棘手了,機器人必須要能夠了解、適應(yīng)新的環(huán)境,理解分析正在進入腦中的數(shù)據(jù),重新進行自主的判斷與選擇。
目前,機器人專家的解決方法是給機器人裝備各種“技能”,通過給機器人裝備大量的傳感器、掃描儀、攝像機和其他高科技工具等多管齊下的方式來評估周圍的環(huán)境。在水下的機器人還要披上“聲吶技術(shù)”的魔法斗篷以應(yīng)對水對光線的干擾。這些視覺裝備組成了一組完整的立體視覺系統(tǒng),從而幫助機器人擁有廣闊的視野,便于收集詳細的環(huán)境數(shù)據(jù)。
機器人收集相關(guān)環(huán)境的數(shù)據(jù)只是成功的一半,更大的挑戰(zhàn)是機器人如何利用那些數(shù)據(jù)來進行決策?,F(xiàn)在,研究人員主要是通過使用預(yù)先設(shè)定的地圖或者在機器人運動中即時構(gòu)建一個映射地圖來為他們的機器人導(dǎo)航。而必須要將預(yù)設(shè)地圖與即時數(shù)據(jù)結(jié)合起來,才能使機器人根據(jù)環(huán)境自己開辟路徑。研究人員正在通過更強大的計算機和先進的概率算法來解決這個難題。
?
二、展示靈巧性
現(xiàn)實中,我們已經(jīng)能看到機器人輔助各行各業(yè)的工作,比如服務(wù)機器人可以收發(fā)包裹,可以打掃衛(wèi)生,甚至今年日本還有一家全機器人服務(wù)的酒店開業(yè)了;而在工業(yè)上,還有機器人在流水線或工程中進行特定的工作等。這些機器人都能展現(xiàn)出一定的技能,但是它們通常進行的是一種定制化的工作,并不能表現(xiàn)出靈巧性,不能自由順暢地行走、跳躍等。
能模仿人從一堆凌亂的東西中從容地選擇需要的東西,還能有意識地對周邊環(huán)境做出反應(yīng)等靈巧性的技能,對機器人來說是十分困難的。過去幾年,研究人員在機器人的兼容設(shè)計和方面已經(jīng)有了顯著的進步。兼容性越好,一個機器人的靈活性也就越高,能夠模仿人類的動作,還能夠進行一定程度的數(shù)據(jù)決策;刻板的機器則相反,缺乏靈活性。
2013年,佐治亞理工學(xué)院的研究人員制造了一個關(guān)節(jié)彈簧的機械臂,這個機械臂不僅能夠自由彎曲擺動,并且還能與環(huán)境有良好的互動,就像是人的手一樣有很好的靈活性。研究人員還為其植上一層“皮膚”,這些皮膚遍布著紅外傳感器,并配備上具有凸出成脊?fàn)罹€的電子指紋,使機械臂不僅能探測到周圍的東西,還能便于機械臂抓取物體。
這個高科技手臂再配上更發(fā)達的視覺系統(tǒng),一個行動敏捷的機器人就誕生了,這個機器人可以溫柔的愛撫動物,也可以在眾多的東西中選擇需要的東西,但是,這對“查派”來說仍然是不值一提。
?
三、與人類自由交談
作為計算機科學(xué)的奠基者之一,圖靈曾在1950年做出了一個大膽的預(yù)言:總有一天,機器人可以流利地與人談話,甚至我們都沒意識到是在和機器人聊天??上У氖?,圖靈沒能看到他的期望變成現(xiàn)實,這是因為語音識別與自然語言的處理不一樣,它比自然語言處理更加復(fù)雜。在自然語言處理中,我們的大腦會從談話間的語句中抽取出談話所表達的含義。
最初,科學(xué)家認(rèn)為這就像是將簡單的語法規(guī)則嵌入到機器的記憶內(nèi)存中一樣簡單。但是對任何一門特定語言的復(fù)雜語法進行簡單復(fù)制被證明是不可能的,所以就目前的情況來看,讓機器人能像人類一樣自由的交流是難以實現(xiàn)的。即使為機器人提供了詞語的含義與規(guī)則,語言學(xué)習(xí)對它們來說仍然是一項艱巨的任務(wù)。因為人類的大腦思維是難以搬進機器人大腦的,有一個具體的例子能表示這種情況:對不同的單詞,例如“new(新的)”和“knew(知道)”,或者是“bank(銀行)”和“bank(堤岸)”,人類可以理解這些詞匯的差異性,但是科學(xué)家卻沒能將這些功能分解成離散的、可識別的規(guī)則,因此,在對機器人的語法嵌入上難以做到與人類語言功能類似的效果。
現(xiàn)在許多機器人的語言處理是在統(tǒng)計數(shù)據(jù)的基礎(chǔ)上進行的,科學(xué)家給它們植入大量的文本集合,被稱為語料庫,然后讓它們的“大腦”將長文本分解成若干的小塊,并進行文本分類,找出哪些詞語會經(jīng)常組合在一起,這些詞語的組合順序是怎樣的。這就需要機器人在統(tǒng)計分析的基礎(chǔ)上學(xué)習(xí)一門語言了。例如,對一個機器人來說,詞匯“蝙蝠”會有詞匯“飛”或者是“翅膀”搭配,“蝙蝠”就指的是會飛的哺乳動物,而“球棒”后面跟著的詞匯“球”或者“手套”指的是團隊運動。但是,僅僅這樣就能使機器人實現(xiàn)與人自由的交談嗎?
四、獲得新技能
如果一個從來沒有打過高爾夫球的人想學(xué)習(xí)如何揮桿,他可能會去閱讀有關(guān)的書并嘗試揮桿,或者他可能會看一個老練的高爾夫球手的揮桿動作來學(xué)習(xí)。如果學(xué)習(xí)新的行為,這是一種更快更容易的方法。
在《超能查派》中,我們可以看到“查派”能不斷學(xué)習(xí)新技能并能完美應(yīng)用這些技能。他不僅能唱歌跳舞,能舞刀弄劍,還能展現(xiàn)高超的駕駛技術(shù)。但是,機器人專家卻面臨著這樣的困境,當(dāng)他們試圖制造一個能夠自主學(xué)習(xí)新技能的機器人,就需要將一個活動分解成不同的精確的步驟,然后將相關(guān)信息通過編程植入機器人大腦。這種做法是假設(shè)了活動的每個方面都能被識別、描述和編碼,然而事實證明,這并不是那么容易的。例如,高爾夫球的揮桿有一些特定的方面可能難以被描述,比如手腕和肘部相互間的力量作用就難以用語言形象地描述。這些微妙的細節(jié)更容易通過演示來交流而不是通過講述的方式。
最近這些年,研究人員已經(jīng)有一些教導(dǎo)機器人模擬人類操作的成功經(jīng)驗,他們稱這些為模擬學(xué)習(xí)或是示范學(xué)習(xí)。機器人通過裝在身上的廣角變焦鏡頭來看到人類演示的特定過程或是活動全程。然后由算法處理這些數(shù)據(jù)來產(chǎn)生一個數(shù)學(xué)函數(shù),將視覺映射到實際行動中。當(dāng)然,機器人在示范學(xué)習(xí)中必須能夠忽視人類行為的某些方面---例如撓癢、眨眼等個人問題,這是機器人與人類處理方式的不同所在。
?
五、學(xué)習(xí)欺騙
對機器人來說,學(xué)習(xí)如何欺騙一個人或者是欺騙別的機器人是一個巨大的挑戰(zhàn)。欺騙是需要想象的——這是將外部不存在的對象形成具體的想法或是圖像的能力,而這種能力正是機器人缺乏的。機器人比較擅長處理從傳感器、相機或是掃描儀中輸入的數(shù)據(jù),并將這些數(shù)據(jù)根據(jù)人類的設(shè)置轉(zhuǎn)換成特定的思維或者圖像,但是并不擅長理解傳感器數(shù)據(jù)之外的東西。
“查派”在成長歷程中,經(jīng)歷了人類的謊言與欺騙,從茫然不知,成長到了形同熟諳人情世故的“人”。雖然現(xiàn)在的機器人還難以做到如此驚人的效果,但是,佐治亞理工學(xué)院的研究人員在實驗中已經(jīng)實現(xiàn)了能夠?qū)⑺墒蟮囊恍┢垓_技能傳授給機器人。首先,他們研究了絨毛嚙齒類動物是如何通過引導(dǎo)競爭者去不同的地方來保護它們埋藏的食品場所;然后,研究人員將那些行為編碼成簡單的規(guī)則并加載到機器人的大腦中,機器人就能夠使用算法來判定在什么樣的情況下欺騙起作用,并且能夠提供一個虛假的交流來誤導(dǎo)機器人伙伴離開它們的藏身之處。假以時日,在人工智能的不斷發(fā)展下,這種技能也許會日趨成熟。想象一下,我們將如何應(yīng)對一個會撒謊的機器人?
六、預(yù)測人類行為
在美劇《摩登家庭》中,機器人女仆羅茜不僅能夠?qū)υ?、做飯、打掃房子,而且還能迎合主人喬治的需求。在該劇第一季的第一集有這樣的場景:喬治的老板斯佩斯利先生到喬治家里吃晚餐,晚餐結(jié)束后,斯佩斯利拿出雪茄后,羅茜就跑過來給他點上。這個簡單的動作表現(xiàn)了一個復(fù)雜的人類行為――即,根據(jù)剛發(fā)生的事情來預(yù)測接下來會發(fā)生什么事情的能力。
就像欺騙一樣,預(yù)測人類行為需要機器人去想象一個未來的狀態(tài)。它必須有這樣的能力:“如果我們觀察到一個人在做X事件,然后在這個事件的經(jīng)驗基礎(chǔ)上,我可以預(yù)測他/她接下來可能會做Y事件?!边@對制造智能機器人來說是一個巨大的挑戰(zhàn),但是科學(xué)家一直在為解決這個挑戰(zhàn)而努力。美國康奈爾大學(xué)的一個研究小組已經(jīng)開發(fā)了一個自主的機器人,這個機器人能根據(jù)環(huán)境中的對象互動來做出相應(yīng)的反應(yīng)。它先用一幅3D攝像機來獲得周圍環(huán)境的圖像,接下來,機器人的“大腦”從混亂背景中識別關(guān)鍵對象并將其隔離。然后,利用從先前的培訓(xùn)課程中收集的大量信息,機器人在與它所要接觸到的對象互動的基礎(chǔ)上,產(chǎn)生了一系列可能的預(yù)測并做出最好的預(yù)測:即,接下來會發(fā)生的行為是什么。
雖然康奈爾大學(xué)的機器人在某些時候仍然會猜錯,但是在相機技術(shù)與算法的不斷改善下,它們在穩(wěn)步地進步。
七、與同伴的協(xié)調(diào)
如果你要完成一項復(fù)雜而又龐大的工作,你是否覺得打造一個功能繁復(fù)的機器人太麻煩,從而更愿意部署更小、更簡單的機器人軍隊,然后協(xié)調(diào)它們完成復(fù)雜的任務(wù)?
但這就帶來了一個挑戰(zhàn):一個機器人在一個小組內(nèi)工作需要準(zhǔn)確定位自己與隊友的關(guān)系,并要進行有效的溝通與互動。為了解決這些問題,科學(xué)家轉(zhuǎn)向昆蟲的世界,在這個世界里,昆蟲能夠通過復(fù)雜的群體行為來尋找食物和完成整個群落的任務(wù)。例如,通過研究螞蟻,研究人員知道螞蟻個體利用信息素與彼此交流。
機器人可以用同樣的“信息素邏輯”,它們依賴于光或是紅外線而不是化學(xué)物質(zhì)來交流。它們的表現(xiàn)就像這樣:一群微小的機器人分散在一個限定的區(qū)域,都在隨機地探索這片區(qū)域,當(dāng)一個機器人探索到離開的出口,它就留下一道光線蹤跡。下一個機器人探測到這道蹤跡,知道跟著這條蹤跡來做一樣的運動,并在它離開的時候留下自己的光線蹤跡。當(dāng)這條蹤跡不斷被加強,就會有越來越多的機器人找到這條蹤跡并繼續(xù)加強。
一些研究人員還發(fā)現(xiàn)使用聲波信號也能成功進行這樣的實驗,因為聲音可以被用來確保個體機器人不會走太遠或者可以像人類一樣被聲音吸引到一塊。
八、自我復(fù)制
上帝告訴亞當(dāng)和夏娃:“生養(yǎng)眾多,遍滿地面?!币粋€機器人收到同樣的指令可能會覺得很困惑或很受挫。因為制造機器人是一回事,制造一個可以自我復(fù)制或能再生丟失或損壞的組件的機器人又完全是另一回事。
有趣的是,機器人不會尋求類似人類的有性生殖模式,因為這樣的生殖模式實在是太復(fù)雜。但是,簡單的動物進行的無性繁殖就很神奇:以水螅為例,一個小囊氣球從母體中分離出來,然后破開后成為一個新的,基因完全相同的個體。
科學(xué)家正在機器人身上實施這一基本的克隆程序。這些機器人由重復(fù)的元素制造的,通常是多維立方體,這些立方體中包含了相同的機械和自我復(fù)制的程序,是可以被分離的,并且功能不會被改變。而且立方體的表面有磁性便于機器人分離身體的元素,這些立方體沿著對角線可以被分成獨立旋轉(zhuǎn)的兩塊。而一個完整的機器人由特定排列結(jié)構(gòu)的幾種立方體組合而成,只要提供立方體,一個簡單的機器人就可以像水螅一樣,分離出另一個具有相同特征的機器人。
九、基于道德原則的行為
我們每天都要與人互動,還要做出數(shù)以百計的決定。在每個決定中,我們要衡量我們的選擇是否正確,是否公平公正。如果我們希望機器人也能像我們一樣,在做決定的時候考慮是非對錯,那它們就需要理解倫理道德。
給機器人定義道德行為也是一個巨大的挑戰(zhàn),主要是因為一組通用的、被普遍認(rèn)可的道德原則并不存在,不同的文化有不同的行為規(guī)則和不同的法律體系。嘗試著去制定一個有關(guān)全球的倫理道德準(zhǔn)則,再讓機器人去學(xué)習(xí)幾乎是不可能的。
不過,研究人員可以把道德問題局限在某個具體的情境下來讓機器人理解。例如,一個局限在特定環(huán)境的機器人――比如在廚房或者是病人的房間里,可能只需要少量的規(guī)則學(xué)習(xí),就可能合理的做出良好的道德決策。機器人專家選擇了一些日常行為案例,并將其中的道德選擇信息編入一個機器學(xué)習(xí)算法。這些選擇是基于三個浮動標(biāo)準(zhǔn)的:一個動作會有多好的結(jié)果,它能預(yù)防多少傷害以及如何衡量公平。然后用算法輸出一個倫理道德原則,這個原則能在機器人做決策的時候用來作為依據(jù)。正如在《超能查派》中,“查派”的道德觀念是需要人類的教導(dǎo),歸根結(jié)底,還是人類的自我道德標(biāo)準(zhǔn)影響了機器人的道德行為。所以,要想機器人能做出良好的道德選擇,人類必須先自我檢視自身的道德尺度。
十、感覺情緒
“世界上最美好的事物是不能被看到或觸碰到的。那是要用心去感受的?!比绻?凱勒的這個觀察是真實的,那么機器人將注定錯過這最美好的事情。畢竟,它們擅長的是感知周圍的物質(zhì)世界,而不能把傳感數(shù)據(jù)轉(zhuǎn)變成特定的情感。它們不能看到愛人的微笑,不能感受快樂,也不會看到人們扮鬼臉而被嚇到。
這也許是人類與機器的最為明顯區(qū)別。試想一下,你如何能教機器人墜入愛河?你如何用程序表現(xiàn)出受挫、厭惡、驚奇或是遺憾等情緒?這些在機器人身上值得一試嗎?
有一些科學(xué)家認(rèn)為是可以的。他們相信未來的機器人將會整合認(rèn)知情感系統(tǒng),這樣,他們就能夠更有效地與人類交互學(xué)習(xí)。不管你信不信,已經(jīng)有原型能表達有限范圍的人類情感。Nao是由一個歐洲研究小組開發(fā)的機器人,它已經(jīng)具備一歲小孩的情感素質(zhì)了。它可以通過姿勢和手勢的結(jié)合來表達快樂、憤怒、害怕或驕傲等情感。這些展示的行為來自于黑猩猩和人類嬰兒的研究,然后被研究人員編程到Nao的大腦中,但是機器人表達哪一種情感是根據(jù)它與附近的人們或?qū)ο蟮慕换頉Q定的。在未來的若干年,許多像Nao一樣的機器人也許會成長到成人一般的情感專家,到那個時候,它們會在不同的環(huán)境中工作,例如醫(yī)院、家和學(xué)校,在那里它們能夠進行正常的人類行為,能教書,能診病,與人類和諧共處。
如果機器人面臨的這些挑戰(zhàn)都解決了,是不是就能開發(fā)出像“查派”一樣聰慧的機器人呢?你也許會發(fā)現(xiàn),這些挑戰(zhàn)都有一個共同點,那就是都需要思維能力。人工智能專家認(rèn)為,人類大腦的歸納推理能力是能實現(xiàn)機器人真正自主思考的自主系統(tǒng)的關(guān)鍵,“查派”正是擁有這種能力,才能從它所經(jīng)歷的事情中改變自己,形成獨特的自己,喊出了那句“我是查派”?,F(xiàn)在人類還沒有實現(xiàn)這種愿景,但是已經(jīng)正在不斷朝這個目標(biāo)前進,如果真正的自主系統(tǒng)出現(xiàn),想象一下,那是一種怎樣的情景!
評論
查看更多