在韓國首爾舉行的圍棋賽的中途,世界級頂尖圍棋選手李世石和谷歌人工智能阿爾法狗的較量中,人工智能阿爾法狗走出了超越人類令人不安的神秘的一步棋。
在第37步,AlphaGo選擇把一塊黑色的棋子放在一開始就像一個荒謬的位置。它看起來肯定會放棄一個實(shí)質(zhì)性的領(lǐng)域 - 這是圍棋中控制棋盤空間的一個新手錯誤。兩位電視評論員想知道他們是否誤讀了這一舉措,或者機(jī)器出了故障。事實(shí)上,與傳統(tǒng)智慧相反,第37步將使AlphaGo在棋盤中心建立一個強(qiáng)大的基礎(chǔ)。谷歌程序高效地贏得了這場比賽,采取了一個沒有人會想出的走法。
關(guān)于藝術(shù)
理解語言對計(jì)算機(jī)和人工智能系統(tǒng)(AI)如此困難的一個原因是,單詞通常具有基于上下文的含義,甚至需要考慮字母和單詞的表達(dá)方式。在這個圖片的故事中,幾位藝術(shù)家展示了使用各種視覺上的細(xì)節(jié)來傳達(dá)超越實(shí)際字母的意義。
這個故事是我們2016年9/10月的問題的一部分
阿爾法狗的勝利特別令人印象深刻,因?yàn)閲褰?jīng)常被看作是對直覺式智能的測試。規(guī)則很簡單。兩名球員輪流在棋盤上的水平線和垂直線交叉處放置黑色或白色棋子,試圖圍繞對手的棋子并將棋子從場上移開。然而,要玩的好是非常困難的。
盡管棋手能夠預(yù)測之后的幾??步棋,但是圍棋游戲開始之后卻會展現(xiàn)出無比的復(fù)雜性,而且沒有經(jīng)典的博弈。衡量優(yōu)勢也沒有直接的方法,即使是大師也很難解釋為什么他下了這一步棋。這使得用一套簡單的規(guī)則編寫專家級圍棋計(jì)算機(jī)程序是不可能的。
沒有人告訴阿爾法狗怎么玩圍棋。相反,該程序分析了數(shù)十萬場比賽,并和自己打了數(shù)百萬場比賽。在一些人工智能技術(shù)中,它使用了一種越來越受歡迎的深度學(xué)習(xí)方法,這種方法涉及的數(shù)學(xué)計(jì)算非常簡單,通過神經(jīng)元的在大腦中的相互連接,它可以學(xué)習(xí)如何理解新的信息。該程序通過幾個小時的練習(xí)來教導(dǎo)自己,逐漸磨練出一個直觀的戰(zhàn)略意識。當(dāng)時它能夠擊敗世界上最好的圍棋選手之一時,代表了人工智能(AI)的真正里程碑。
勞倫斯·韋納橡 膠球扔到海里 1970 / 2014
第37步之后的幾個小時,AlphaGo贏得了兩場比賽的勝利,在五人制比賽中連勝。之后,李世石站在一群記者和攝影師面前,禮貌地道歉由于人類的失敗。“我無話可說,”他說,透過閃光的攝影機(jī)。
AlphaGo令人驚訝的成功指出,過去幾年人工智能取得了多大的進(jìn)步,經(jīng)過幾十年的挫折和挫折,即常常被形容為“人工智能冬天”的那段時間。深度學(xué)習(xí)意味著機(jī)器可以越來越多地自學(xué)如何執(zhí)行那些在幾年前才被認(rèn)為需要人類獨(dú)特的智慧的復(fù)雜任務(wù)。自駕汽車已經(jīng)是可預(yù)見的了。在不久的將來,基于深度學(xué)習(xí)的系統(tǒng)將用于診斷疾病和推薦治療。
然而,盡管取得了令人印象深刻的進(jìn)步,但其中一個基本能力仍然是難以捉摸的:自然語言 像Siri和IBM的Watson這樣的系統(tǒng)可以理解簡單的口頭表達(dá)并回答基本的問題,但是他們不能進(jìn)行對話,也不能真正理解他們使用的單詞。如果人工智能要真正具有變革性,這種情況就必須改變。
即使AlphaGo不能說話,它使用的技術(shù)可能會促進(jìn)更好的語言理解。在谷歌,臉書和亞馬遜這樣的公司以及領(lǐng)先的人工智能實(shí)驗(yàn)室中,研究人員試圖最終解決這個看似棘手的問題,使用一些類似的使得阿爾法狗成功的人工智能(AI)工具(包括深度學(xué)習(xí))。它們是否成功將決定現(xiàn)在正在進(jìn)行的人工智能的革命的規(guī)模和性質(zhì)。這將有助于確定我們是否會擁有我們可以輕松地與其進(jìn)行溝通的機(jī)器 (機(jī)器成為我們?nèi)粘I钪械囊徊糠?)或者人工智能(AI)系統(tǒng)是否仍然是神秘的黑匣子,即使它們變得更加自動化?!澳悴豢赡軗碛幸粋€人性化的沒有自然語言理解能力的人工智能(AI)系統(tǒng),“麻省理工學(xué)院認(rèn)知科學(xué)與計(jì)算學(xué)教授Josh Tenenbaum說,“這是區(qū)分人類智慧的最明顯的事情之一。”
也許使阿爾法狗攻克圍棋的技術(shù)最終將使計(jì)算機(jī)掌握語言,或者也許還需要點(diǎn)別的技術(shù)。但是沒有語言理解,人工智能的影響將會大為不同。當(dāng)然,我們?nèi)匀豢梢該碛蟹浅?qiáng)大和智能的類似阿爾法狗的軟件。但是我們與人工智能的關(guān)系可能遠(yuǎn)遠(yuǎn)不夠和諧,遠(yuǎn)沒有那么友好?!皬囊婚_始這就是一個令人頭痛的問題,”如果你有那些在有些方面是很有效的東西,但是卻和我們不同。“斯坦福大學(xué)名譽(yù)教授Terry Winograd說。“你可以想象運(yùn)行世界機(jī)器不是基于人類的智慧,而是基于這個大數(shù)據(jù)的東西。
機(jī)器低語者
在阿爾法狗勝利幾個月后,我前往硅谷,這是人工智能最新潮的核心。我想拜訪那些在人工智能的實(shí)際應(yīng)用上取得顯著進(jìn)步的研究人員,他們現(xiàn)在正試圖讓機(jī)器更好地理解語言。
我從Winograd開始,他住在郊區(qū),在帕洛阿爾托斯坦福大學(xué)校園南端,離谷歌,臉書和蘋果公司總部不遠(yuǎn)。他卷曲的白頭發(fā)和濃密的胡須,看起來是一個古老的學(xué)者,他有著傳染病般的熱情。
早在1968年,Winograd就成為教機(jī)器交談的先驅(qū)者之一。作為一位數(shù)學(xué)神童,他著迷于語言,他來到麻省理工學(xué)院新的人工智能實(shí)驗(yàn)室學(xué)習(xí)他的博士學(xué)位,并決定通過文字提示,用日常語言建立一個與人交談的程序。當(dāng)時這看起來似乎是一個很古怪的想法。人工智能正在取得令人難以置信的進(jìn)展,麻省理工學(xué)院的其他人正在構(gòu)建復(fù)雜的計(jì)算機(jī)視覺系統(tǒng)和未來的機(jī)器人手臂。他回憶說:“人工智能有一種未知的,無限的可能性。
四種顏色 四個字母 Joseph Kosuth 1966
盡管不是每個人都相信,語言可以很容易掌握。包括有影響力的語言學(xué)家和麻省理工學(xué)院教授諾姆·喬姆斯基(Noam Chomsky)在內(nèi)的一些批評家認(rèn)為,由于對人類的語言機(jī)制知之甚少,人工智能研究人員很難使得機(jī)器理解語言。Winograd記得參加一個派對的時候,喬姆斯基的一個學(xué)生聽到他說自己在人工智能實(shí)驗(yàn)室工作,就走開了。
但是也有理由保持樂觀。德國出生的麻省理工學(xué)院教授Joseph Weizenbaum在幾年前建立了第一個聊天機(jī)器人程序。被稱為ELIZA,它被編程為一個卡通心理治療師,重復(fù)聲明關(guān)鍵的部分或提出的問題,將促進(jìn)進(jìn)一步的交流。例如,如果你告訴程序,你對你的母親生氣,就會說:“當(dāng)你想到你的母親時,還想到了什么?”一個簡單的伎倆,但它工作的出人意料的好。當(dāng)一些學(xué)科開始向他的機(jī)器承認(rèn)他們最黑暗的秘密時,魏澤鮑姆感到非常震驚。
將深度學(xué)習(xí)應(yīng)用于語言存在明顯的問題。語言是抽象的,它們與圖像存在著本質(zhì)的差異。
Winograd想要創(chuàng)造一些真正似乎理解語言的東西。他從縮小問題的范圍開始。他創(chuàng)造了一個簡單的虛擬環(huán)境,一個“方塊世界”,由一些想象中的物體放在一張?zhí)摌?gòu)的桌子上組成。然后他創(chuàng)建了一個名為SHRDLU的程序 ,這是能夠解析所有名詞,動詞,和簡單的語法規(guī)則,這些規(guī)則被用來描述這個精簡的虛擬世界。SHRDLU(由Linotype機(jī)器上的第二列鍵組成的無意義的單詞)可以描述對象,回答它們之間的關(guān)系的問題,并根據(jù)輸入的命令對塊世界進(jìn)行更改。它甚至有一種記憶,所以如果你告訴它移動“紅色圓錐體”,然后再提到“圓錐體”,它會認(rèn)為你的意思是移動紅色的,而不是另一種顏色。
SHRDLU被認(rèn)為是AI的領(lǐng)域正在取得深刻進(jìn)展的一個標(biāo)志。但這只是一個錯覺。當(dāng)Winograd試圖使程序的方塊世界更大時,必要的詞匯和語法規(guī)則的復(fù)雜性將變得難以管理。就在幾年之后,他放棄了,并且最終他放棄了人工智能(AI),專注于其他領(lǐng)域的研究。他說:“這個限制比當(dāng)時看起來要更加接近了“。
Winograd總結(jié)說,使用當(dāng)時可用的工具讓機(jī)器真正理解語言是不可能的。加州大學(xué)伯克利分校哲學(xué)系教??授Hubert Dreyfus在1972年的一本名為“ What Computers Can not Do”的書中認(rèn)為,問題在于,人類所做的許多事情都需要一種本能的直覺,而這種直覺不能夠被簡單的規(guī)則所掌控。這正是為什么在李世石和阿爾法狗之間的比賽之前,許多專家懷疑機(jī)器會掌握圍棋。
純美 John Baldessari 1966-68
但是,即使德雷福斯提出這樣的觀點(diǎn),事實(shí)上上,一些研究人員正在開發(fā)一種方法,最終會使機(jī)器具備這種智能。他們從神經(jīng)科學(xué)中獲得了靈感,他們正在試驗(yàn)人工神經(jīng)網(wǎng)絡(luò) (數(shù)學(xué)建模成的神經(jīng)元層,可以訓(xùn)練它們響應(yīng)某些輸入而激活)。首先,這些系統(tǒng)的速度非常緩慢,并且這種方法在邏輯上被認(rèn)為是不切實(shí)際的。然而,至關(guān)重要的是,神經(jīng)網(wǎng)絡(luò)可以學(xué)習(xí)做不能被手工編程的東西,后來這種方法被證明對于一些簡單任務(wù)是有效的,例如識別手寫字符,這是一種在20世紀(jì)90年代商業(yè)化的技術(shù),用于 讀取支票上的數(shù)字。支持者認(rèn)為,神經(jīng)網(wǎng)絡(luò)最終會讓機(jī)器做得更多。有一天,他們聲稱,這項(xiàng)技術(shù)甚至?xí)斫庹Z言。
在過去的幾年里,神經(jīng)網(wǎng)絡(luò)變得越來越復(fù)雜和強(qiáng)大。這種方法得益于關(guān)鍵的數(shù)學(xué)方法的改進(jìn),更重要的是,現(xiàn)在出現(xiàn)了更快的計(jì)算機(jī)硬件和更多的數(shù)據(jù)。到2009年,多倫多大學(xué)的研究人員已經(jīng)證明,多層深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)模型能夠準(zhǔn)確的識別語音。然后在2012年,同樣的一個小組使用深度學(xué)習(xí)算法贏得了機(jī)器視覺比賽,這個算法非常準(zhǔn)確。
深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)使用簡單的技巧識別圖像中的對象。第一層模擬的神經(jīng)元以圖像的形式接收輸入,并且這些神經(jīng)元中的一些將響應(yīng)于各個像素的強(qiáng)度而激活。所得到的信號在到達(dá)輸出層之前經(jīng)過更多層相互連接的神經(jīng)元,這表示該物體已經(jīng)被看見。一種稱為反向傳播的數(shù)學(xué)方法被用來調(diào)整網(wǎng)絡(luò)神經(jīng)元的靈敏度以使其產(chǎn)生正確的響應(yīng)。正是這一步讓系統(tǒng)有了學(xué)習(xí)的能力。網(wǎng)絡(luò)中的不同層將響應(yīng)邊緣,顏色或紋理等特征。這樣的系統(tǒng)現(xiàn)在可以擁有與人類相媲美的精度識別物體,動物或面部特征。
將深度學(xué)習(xí)應(yīng)用于語言存在明顯的問題。語言是抽象的,它們與圖像存在著本質(zhì)的差異。例如,兩個單詞在意義上可以相似,但是包含完全不同的字母; 同一個詞在不同的語境中可能意味著各種各樣的事物。
在20世紀(jì)80年代,研究人員提出了一個關(guān)于如何將語言轉(zhuǎn)化為神經(jīng)網(wǎng)絡(luò)可以解決的問題的巧妙思路。他們證明,單詞可以表示為數(shù)學(xué)向量,允許計(jì)算相關(guān)單詞之間的相似性。例如,“船”和“水”在向量空間上很接近,盡管它們看起來很不一樣。由Yoshua Bengio領(lǐng)導(dǎo)的蒙特利爾大學(xué)的研究人員以及谷歌的另一個團(tuán)隊(duì)利用這種洞察力建立了網(wǎng)絡(luò),使用一個句子中的每個單詞可以用來構(gòu)建一個更復(fù)雜的表示 (多倫多大學(xué)和的教授兼谷歌深度學(xué)習(xí)研究人員Geoffrey Hinton稱之為“思維向量”)。
通過使用兩個這樣的網(wǎng)絡(luò),可以在兩種語言之間以極高的精度進(jìn)行翻譯。通過將這種類型的網(wǎng)絡(luò)與旨在識別圖像中的物體的網(wǎng)絡(luò)結(jié)合起來,可以得出令人驚訝的效果。
生活的目的
坐在繁華的加州山景城的谷歌總部的是該公司的研究人員Quoc Le,正在考慮開發(fā)可以進(jìn)行一個適當(dāng)?shù)恼勗挼臋C(jī)器的想法。他的雄心壯志表明了為什么能夠語言交流的機(jī)器有用。他說:“我想要一種在機(jī)器上模擬思想的方法?!叭绻阆肽M思想,那么你應(yīng)該需要知道機(jī)器究竟在想什么。”
谷歌已經(jīng)在教計(jì)算機(jī)語言的基礎(chǔ)知識。今年五月,該公司宣布了一個名為Parsey McParseface的系統(tǒng),可以看語法格式,識別名詞,動詞和其他文本元素。不難看出,機(jī)器的語言理解能力對公司有多大價值。谷歌的搜索算法用于簡單地跟蹤網(wǎng)頁之間的關(guān)鍵字的鏈接。現(xiàn)在,使用名為RankBrain的系統(tǒng),它會讀取頁面上的文字,收集意義并提供更好的結(jié)果。Le想進(jìn)一步發(fā)展這種算法。應(yīng)用用于翻譯和圖像識別的算法,他和他的同事們構(gòu)建了Smart Reply,它可以讀取Gmail郵件的內(nèi)容,并提出一些可能的答復(fù)建議。
最近,Le建立了一個能夠?qū)﹂_放式問題做出回答的程序; 它通過18,900部電影的對話進(jìn)行訓(xùn)練。它的一些回答看起來很奇怪。例如,樂問:“生活的目的是什么?”該程序回答說:“為了更好的服務(wù)。”這是一個很好的答案,“他笑著回憶說,“可能比我的更好?!?/p>
只有一個問題,它很快就會顯現(xiàn)出來,當(dāng)你看到更多的系統(tǒng)答案時。當(dāng)Le問道:“貓有多少條腿?”他的系統(tǒng)回答說:“我認(rèn)為是四條腿?!比缓笏囍f:“蜈蚣有多少條腿?”這引起了一個奇怪的回答:“八條”。 當(dāng)然,Le的程序不知道它在說什么。它理解某些符號的組合,但是它不能理解現(xiàn)實(shí)世界。它不知道蜈蚣實(shí)際上是什么樣子,或者它是如何移動的。這仍然只是一種智慧的幻覺,沒有人類理所當(dāng)然的那種常識。深度學(xué)習(xí)系統(tǒng)通常可以這樣做到。谷歌為圖像生成所創(chuàng)建的程序會產(chǎn)生奇怪的錯誤,例如將路牌描述為充滿食物的冰箱一樣。
Le問:“生活的目的是什么?”該方案回應(yīng)說:“為了更好的服務(wù)”。
奇怪的巧合是,Terry Winograd在帕洛阿爾托的隔壁鄰居是一個能幫助計(jì)算機(jī)更好地理解單詞實(shí)際意義的人。斯坦福大學(xué)人工智能實(shí)驗(yàn)室主任李飛飛在我拜訪時正在休產(chǎn)假,但她邀請我到她家,自豪地向我介紹了她美麗的三個月大的嬰兒鳳凰?!翱纯此趺纯茨惚任腋鼌柡?,”李在鳳凰盯著我時說?!澳鞘且?yàn)槟闶切聛淼? 這是早期的面部識別?!?/p>
李在研究機(jī)器學(xué)習(xí)和計(jì)算機(jī)視覺方面花費(fèi)了大量的時間。幾年前,她領(lǐng)導(dǎo)建立一個包含數(shù)百萬個對象圖像的數(shù)據(jù)庫,每個數(shù)據(jù)庫都標(biāo)有一個適當(dāng)?shù)年P(guān)鍵字。但李相信,機(jī)器需要對世界上發(fā)生的事情有更深入的了解,而今年她的團(tuán)隊(duì)又發(fā)布了另一個圖像數(shù)據(jù)庫,注釋的內(nèi)容更為豐富。每幅圖像都被人用幾十個描述符標(biāo)記:“一只滑滑板的狗”,“一條蓬松波浪的毛皮”,“有裂紋的道路”等等。希望機(jī)器學(xué)習(xí)系統(tǒng)能學(xué)會更多地了解物理世界?!按竽X的語言部分可以得到大量的信息,包括從視覺系統(tǒng),”李說。人工智能的一個重要組成部分就是整合這些系統(tǒng)?!?/p>
通過將單詞與對象,關(guān)系和行為聯(lián)系起來,這將更接近兒童學(xué)習(xí)的方式。但是,與人類學(xué)習(xí)的類比僅僅就走到了這一步。幼兒不需要看滑板狗就能想象或口頭描述。事實(shí)上,李相信今天的機(jī)器學(xué)習(xí)和人工智能工具不足以帶來真正的人工智能。她說:“這不僅僅是因?yàn)檫@是基于大數(shù)據(jù)的深度學(xué)習(xí)”。李相信人工智能研究人員需要考慮情緒和社交智能等問題。她說:“我們(人類)在用大量數(shù)據(jù)進(jìn)行計(jì)算的時候非常糟糕,但我們在抽象和創(chuàng)造力方面非常出色。”
沒有人知道如何給機(jī)器提供這些人的技能 (如果這是可能的,會不會存在那些超出AI范圍的品質(zhì),例如獨(dú)特的人性?)
像麻省理工學(xué)院的Tenenbaum這樣的認(rèn)知科學(xué)家理論上認(rèn)為,今天的神經(jīng)網(wǎng)絡(luò)中不存在思想的重要的組成部分,不管這些網(wǎng)絡(luò)有多大。人類能夠從相對較少的數(shù)據(jù)中快速學(xué)習(xí),并且具有內(nèi)置的三維世界建模能力。Tenenbaum說:“語言是建立在其他能力之上的,這些能力可能是更基本的,在擁有語言能力之前就存在于嬰幼兒身上:通過視覺來感知世界,反饋給我們的運(yùn)動系統(tǒng),理解物理世界和其他。
如果他是對的,那么就很難在機(jī)器和人工智能系統(tǒng)中不模仿人類,心智模型和心理學(xué)而重新建立語言。
自己解釋一下
諾亞古德曼在斯坦福大學(xué)心理學(xué)系的辦公室實(shí)際上幾乎是空的,只有一些抽象繪畫支撐在一堵墻和幾棵雜草叢生的植物上。當(dāng)我到達(dá)時,古德曼在一臺筆記本電腦上打字,赤腳站在桌子上。我們漫步在陽光普照的校園里喝冰咖啡。他解釋說:“語言的特殊之處在于它依賴于大量有關(guān)語言的知識,但它也依賴于世界的大量常識性知識,而這兩種知識以非常微妙的方式結(jié)合在一起。
古德曼和他的學(xué)生們開發(fā)了一種編程語言,稱為Webppl,可以用來給計(jì)算機(jī)一種基于概率的常識,這在對話中變得非常有用。一個實(shí)驗(yàn)版本可以理解雙關(guān)語,另一個可以應(yīng)付夸張語句。如果它被告知有些人不得不在餐廳“永遠(yuǎn)”等候一張桌子,就會自動判定這個字面意思是不可能的,很可能只是表示等了很久而變得很生氣。這個系統(tǒng)遠(yuǎn)非真正的智能化,但它顯示了新的方法如何幫助使AI程序以更逼真的方式進(jìn)行交談。
與此同時,古德曼的例子也表明,教機(jī)器語言是多么困難。理解“永遠(yuǎn)”的語境意義是人工智能系統(tǒng)需要學(xué)習(xí)的東西,但這是一個相當(dāng)簡單和基本的成果。
他說:“我想要一種在機(jī)器上模擬思想的方法?!叭绻阆肽M思想,那么你需要知道機(jī)器究竟在想什么?!?/p>
不過,盡管這個問題有困難和復(fù)雜性,研究人員使用深度學(xué)習(xí)技術(shù)來識別圖像并在圍棋這樣的游戲中表現(xiàn)的優(yōu)秀性,至少給了人們語言方面取得突破的希望。如果是這樣,這些進(jìn)展將會很快到來。如果人工智能是一個無處不在的工具,人們用它來增強(qiáng)自己的智慧,讓它以無縫協(xié)作的方式接管任務(wù),語言將是關(guān)鍵。隨著人工智能系統(tǒng)越來越多地使用深度學(xué)習(xí)和其他技術(shù)來自我編程,情況尤其如此。
研究自動駕駛的麻省理工學(xué)院教授John Leonard說:“總的來說,深度學(xué)習(xí)系統(tǒng)令人驚嘆。“但另一方面,他們的表現(xiàn)真的很難理解?!?/p>
正在研究一系列自主駕駛技術(shù)的豐田公司,在人工智能和編程語言專家杰拉爾德·蘇斯曼(Gerald Sussman)的領(lǐng)導(dǎo)下,在麻省理工學(xué)院(MIT)發(fā)起了一個研究項(xiàng)目,開發(fā)自動駕駛系統(tǒng)用于自我解釋為什么會采取特定的行動。而這樣做的一個顯而易見的方法就是通過談話。領(lǐng)導(dǎo)豐田支持的另一個項(xiàng)目的倫納德說:“建立知道它們在做什么的系統(tǒng)是一個非常難的問題。“但是,理想情況下,他們不僅僅給出答案,而是給出解釋?!?/p>
從加利福尼亞回來后的幾個星期,我看到設(shè)計(jì)阿爾法狗的谷歌DeepMind研究員David Silver在紐約的一次學(xué)術(shù)會議上討論了與李世石的比賽。Silver解釋說,當(dāng)這個節(jié)目在第二場比賽中出現(xiàn)殺手時,他的團(tuán)隊(duì)和其他人一樣驚訝。他們所能看到的只是阿爾法狗預(yù)測的獲勝幾率,即使在第37步之后也幾乎沒有變化。僅僅幾天后,經(jīng)過仔細(xì)分析,谷歌團(tuán)隊(duì)發(fā)現(xiàn):通過學(xué)習(xí)以前的對局,該程序計(jì)算了人類選手移動同一步萬分之一的概率。其練習(xí)局也表明,這提供了一個異常強(qiáng)大的優(yōu)勢。
所以在某種程度上,機(jī)器知道李世石會完全被騙過。
Silver表示,谷歌正在考慮將該技術(shù)商業(yè)化的幾個選項(xiàng),包括某種智能助理和醫(yī)療保健工具。之后,我問他與這樣的系統(tǒng)背后的人工智能交流的重要性?!斑@是一個有趣的問題,”他停了一下說。“對于某些應(yīng)用,這可能很重要。就像在醫(yī)療保健方面一樣,了解為什么做出決定可能很重要?!?/p>
事實(shí)上,隨著人工智能系統(tǒng)變得越來越復(fù)雜,我們很難設(shè)想如何在沒有語言的情況下與他們進(jìn)行合作而不能問他們“為什么”。除此之外,與計(jì)算機(jī)毫不費(fèi)力地溝通的能力將使它們更有用,使得它不那么神奇。畢竟,語言是我們理解世界和與之互動的最強(qiáng)大的方式?,F(xiàn)在該我們的機(jī)器抓緊時間擁有這項(xiàng)能力了。
評論
查看更多