聽書讀書看書,就上時刻會。大家好,歡迎來到時刻會
人工智能這詞兒可能你已經(jīng)不陌生了,人工智能今天已經(jīng)發(fā)展到什么程度了呢?
我給你舉個例子,2019年8月,王者榮耀舉行了一場特殊的世界 冠軍杯半決賽,5位電競職業(yè)選手組成的聯(lián)隊,對陣王者榮耀開發(fā)出的人工智能聯(lián)隊-覺悟。結(jié)果你可能也猜到了,人工智能只用了16分15秒,就輕松取得了勝利。
其實這已經(jīng)不是人類第1次領(lǐng)教人工智能的厲害了,早在2017年,阿爾法GO就以3:0擊敗了世界圍棋冠軍柯潔,當(dāng)時人們就已經(jīng)開始擔(dān)憂,未來自己是不是會被人工智能吊打。這些年也經(jīng)常會出一些新聞,比如AI會做數(shù)據(jù)分析了,AI會寫文章,會畫畫等等。
那么AI時代的到來,對人類來說究竟意味著什么呢?
下面我們就從各大學(xué)者討論的三個焦點來說說今天的內(nèi)容。
第1,人工智能有沒有可能替代人類?
第2,人類應(yīng)該怎么看待人工智能?
第3,人工智能 會給人類的未來帶來怎樣的影響?
好,我們先來看第1個焦點,人工智能有沒有可能替代人類呢?
對人工智能的探索 從20世紀(jì)50年代就開始了,當(dāng)時的研究人員宣稱,20年內(nèi) 機(jī)器將有能力完成一個人所能做的任何工作。其實這話有點夸大了,哪怕到今天人工智能如此快速的發(fā)展,還是不能完全替代人,但是有一個問題是值得我們思考的,就是未來有一天會不會出現(xiàn)超越人類智力水平的人工智能呢?
對于這個問題,現(xiàn)在神經(jīng)科學(xué)先驅(qū) 托馬索 認(rèn)為,人類的大腦構(gòu)造非常復(fù)雜,但是人類本身可能對這一點認(rèn)識得并不是很充分。他認(rèn)為即使現(xiàn)在計算機(jī)處理能力在快速提高,計算機(jī)也絕不可能在短時間內(nèi)趕上人腦,而物理學(xué)家 塞斯-勞埃德 對人工智能的發(fā)展目標(biāo)預(yù)期更低,他說我們得降低我們的期望值,雖然人工智能已經(jīng)有了長足的發(fā)展,但機(jī)器人還是不會系鞋帶。
2009年諾貝爾化學(xué)獎得主 文卡-拉馬克里希南 也持有類似的觀點。他覺得 超人類 人工智能聽起來還是有些科幻小說的味道,因為我們對大腦的細(xì)節(jié)還很不了解,而我們常常低估大腦的復(fù)雜性和創(chuàng)造性。在他看來機(jī)器不可能取代人類的思想、創(chuàng)造力和視野。
計算機(jī)科學(xué)家茱莉亞-珀爾的回答就更具體了,他說現(xiàn)在流行的機(jī)器學(xué)習(xí)方式叫做深度學(xué)習(xí),也就是計算機(jī)通過觀察大量數(shù)據(jù)來自學(xué)。實際上這種學(xué)習(xí)方法反而局限了人工智能的發(fā)展,因為這種過程和達(dá)爾文進(jìn)化論的自然選擇過程相似,它能使鷹和蛇在幾百萬年時間里進(jìn)化出超強的視力,但是人類會去制造眼鏡和望遠(yuǎn)鏡,則與此無關(guān)。
深度學(xué)習(xí)教不會機(jī)器 回答 如果我這樣做了會怎樣之類的問題,還沒有人類的想象力,所以機(jī)器可能永遠(yuǎn)都沒辦法擁有人類一樣的智能。
此外深度學(xué)習(xí)這種自學(xué)方式的不透明性,讓他很不安。他說,深度學(xué)習(xí)有自己的 動力學(xué)機(jī)制,還能自我修復(fù),找出最優(yōu)化組合,絕大多數(shù)時候都會給出正確的結(jié)果,可一旦結(jié)果錯了,你不會知道哪里出了問題,也不知道該如何修復(fù)。
所以珀爾教授在20世紀(jì)80年代推出了一種實現(xiàn)人工智能的新方法叫做 貝葉斯網(wǎng)絡(luò),他認(rèn)為通過這種方式可以將 概率圖模型和數(shù)據(jù)結(jié)合起來,表達(dá)并推斷因果關(guān)系。
兒童學(xué)者 艾莉森-高普尼克 也認(rèn)為,人工智能取代人類還是太遙遠(yuǎn)了,他對比了兩種主流的機(jī)器學(xué)習(xí)方法,分別是自下而上的深度學(xué)習(xí) 和自上而下的貝葉斯模型。
這兩種方法都讓人工智能系統(tǒng)取得了成就,但是從目前來看,這兩種方法都不能解決人工智能系統(tǒng)進(jìn)一步的學(xué)習(xí)問題。沒錯,程序員們確實可以從小孩子的行為中 找到計算機(jī)學(xué)習(xí)的方向,但是小孩子是積極主動的學(xué)習(xí)者,而人工智能卻是在被動的吸收數(shù)據(jù),所以只有把好奇心構(gòu)建到機(jī)器當(dāng)中,并且允許他們與世界積極互動,才可能給他們提供一種更現(xiàn)實、更廣泛的學(xué)習(xí)途徑。此外和現(xiàn)有的人工智能不同,兒童是社會和文化學(xué)習(xí)者,人類不是孤立的學(xué)習(xí),而是利用過去幾代人積累的智慧去學(xué)習(xí)。
最近的研究表明,即使是學(xué)齡前兒童,也能通過模仿和聆聽他人的話語來學(xué)習(xí),但人工智能不能,所以艾利森認(rèn)為,在解決學(xué)習(xí)的基本矛盾之前,最好的人工智能也沒辦法 比過4歲的人類孩子。
麻省理工學(xué)院 媒體藝術(shù)與科學(xué)教授 阿萊克斯-彭特蘭也認(rèn)為,人工智能 應(yīng)該不能達(dá)到超人的智能水平。他的邏輯是這樣的,人工智能是以數(shù)據(jù)為基礎(chǔ)的,沒有數(shù)據(jù)人工智能一文不值,你控制了數(shù)據(jù)就控制了人工智能。在它眼中人類社會是一個網(wǎng)絡(luò),人類有很強的描述性能力,且對大多數(shù)問題都有常識性的理解。也就是說 人類社會中的神經(jīng)元,你和我更聰明,所以也就有可能擊敗所有基于機(jī)器的人工智能。
倫敦蛇形畫廊的藝術(shù)總監(jiān) 漢斯-奧布里斯特,也梳理了藝術(shù)家們對人工智能的討論。他總結(jié)說,目前藝術(shù)家們在人工智能領(lǐng)域關(guān)注的問題 是圖像制作,創(chuàng)造力 以及如何將AI作為藝術(shù)工具來使用。他認(rèn)為,當(dāng)代藝術(shù)家的作品,很大程度上體現(xiàn)了人類對人工智能的反思。
而另一位藝術(shù)家準(zhǔn)確的說是藝術(shù)史學(xué)家卡羅琳-瓊斯,他回顧了人工智能和藝術(shù)交織的歷史,藝術(shù)家們一開始把機(jī)器引入藝術(shù)展覽,并不是為了開發(fā)智能,他們對數(shù)據(jù)或是信息處理也不感興趣,他們感興趣的是那些能喚起人們驅(qū)動力、本能和情感的機(jī)械動作。藝術(shù)家們一開始用的娃娃來暗示參觀者們 所處的被觀察的狀態(tài),這種微妙的角色轉(zhuǎn)換讓人和機(jī)器在藝術(shù)上第1次被置于平等的地位,那時候信息不等于資本,智能也不等于數(shù)據(jù)采集。
那么今天人工智能的繼續(xù)發(fā)展帶來了什么呢?自動化的武器系統(tǒng)和大眾化的娛樂。藝術(shù)家們無法解決這些問題,但他們提醒我們,到目前為止,人類還有創(chuàng)造性潛能沒有得到開發(fā),人工智能也還沒有自己的真正的智慧,我們不能將數(shù)據(jù)視為智能,也不能將數(shù)字網(wǎng)絡(luò) 視為神經(jīng),更不能將孤立的個體 視為生命單位。
好,以上就是我們介紹的第1個焦點問題。接下來我們來看看學(xué)者們關(guān)注的第2個焦點,人類應(yīng)該怎么看待人工智能呢?
喬治-丘奇是基因生物學(xué)革命的先驅(qū),也是這一新思想領(lǐng)域的核心人物,他不懷疑人工智能的智能性,也暫時假定人工智能與人類整體而言是安全有效的,他重點關(guān)注的是機(jī)器人的權(quán)利問題。他說人類與機(jī)器之間的界限已經(jīng)變得模糊,這是因為機(jī)器變得更像人類,也因為人類變得更像機(jī)器。
喬治在他的文章里給出了一個概念叫做超人類,什么意思呢?
就是生活在現(xiàn)代,但處于非技術(shù)文化中的人類 無法理解的人和文化,他認(rèn)為現(xiàn)在已經(jīng)有數(shù)百萬人可以被稱為超人類了,所以在未來我們應(yīng)該關(guān)注所有 有意識者的權(quán)利,其中也包括 人工智能。在丘奇看來,人工智能的主要風(fēng)險不在于我們是否 能從數(shù)學(xué)角度上理解他們的想法,而在于我們是否能夠教給他們符合道德規(guī)范的行為。
與喬治的主張相反,丹尼爾-丹尼特堅決反對把人工智能和人同等看待,堅決反對賦予人工智能意識。丹尼爾-丹尼特 是人工智能領(lǐng)域最優(yōu)秀的哲學(xué)家,《直覺泵bèng》就是他寫的。在他看來人工智能 歸根到底應(yīng)該被看作一個工具,而不是像人一樣的意識主體。有自然意識的人已經(jīng)太多了,我們不需要在人工創(chuàng)造有意識的主體,何況這種主體在沒有規(guī)定的情況下 會一直活著,并且沒有弱點。我們需要的是智能工具,沒有愛恨,沒有情感,也沒有權(quán)力的工具,只有這樣 來規(guī)劃人工智能,我們才能夠在危險之間掌握主動權(quán)。
默認(rèn)丹尼爾觀點正確的科學(xué)家很多,在大多數(shù)學(xué)者們看來,喬治-丘奇的主張?zhí)みM(jìn)了,他們更愿意把人工智能想象成一種可能對人類有好處的系統(tǒng)。比如說 連線雜志前總編輯克里斯-安德森就認(rèn)為,人類可能也包括所有的生命形式,都經(jīng)常被困在局部極小值的范圍中。就說象棋和圍棋吧,人類玩了幾千年,但是人工智能卻只用了短短幾年時間,就可以對人類之中的強手 進(jìn)行降維打擊。這是因為人工智能發(fā)現(xiàn)了玩這些游戲更好的策略,而這些策略是人類從來沒有考慮過的。所以克里斯認(rèn)為接下來的幾十年,我們要利用人工智能對人類7百萬年進(jìn)化以來,從未發(fā)現(xiàn)的思維方式進(jìn)行大量研究探索。
最后我們來看看學(xué)者們關(guān)注的第3個焦點,人工智能對人類未來的影響?
很多人對此十分擔(dān)心,skype(思蓋普) 的締造者之一具體叫什么不記的了太長了,他認(rèn)為人工智能的持續(xù)發(fā)展會造成宇宙規(guī)模的變化,這個失控的過程可能會殺死每一個人。
而喬治-戴森,一位高中失業(yè)的科技史學(xué)家也有著差不多的擔(dān)憂,他認(rèn)為好的人工智能是個神話,對于那些相信自己能制造機(jī)器 來控制一切的人,大自然的反應(yīng)將會是允許他們制造機(jī)器,機(jī)器又來控制他們。
與這兩位科學(xué)家擔(dān)心未來不同,麻省理工的榮譽退休 教授羅德尼-布魯克斯對現(xiàn)在的局面就已經(jīng)非常擔(dān)憂了。
他認(rèn)為人類已經(jīng)陷入了困境,人們一方面依賴于網(wǎng)絡(luò)軟件提供的服務(wù),一方面又把自己的隱私 赤裸裸的暴露在這些軟件面前,而且軟件系統(tǒng)的發(fā)展速度已經(jīng)超過了實時可靠保障措施的速度。
物理學(xué)家 戴維-凱澤也看到了這一點,他說,經(jīng)濟(jì)世界的信息可以被儲存,被商品化,被貨幣化。打個比方,你想買襪子,前一秒你才在購物網(wǎng)站輸入了襪子這個關(guān)鍵詞,后一秒你就會看到新打開的其他網(wǎng)頁上冒出襪子的廣告。這種信息重塑了我們的購物習(xí)慣,政治參與,人際關(guān)系和對隱私的期望,于是我們看到的就都變成了我們想要的。
加州大學(xué)的教授 斯圖爾特-羅素 認(rèn)為,我們應(yīng)該慎重的創(chuàng)造人類水平,甚至超人類水平的智能,因為這個后果是有風(fēng)險的,這些智能程序最終達(dá)成的結(jié)果 與人類設(shè)計的初衷可能并不一致。打個比方來說,為了能讓機(jī)器好好表現(xiàn),我們可能會說,你好好表現(xiàn),完了我給你獎勵,,但是在機(jī)器看來獲得獎勵的最優(yōu)解可能并不是好好表現(xiàn),而是直接控制人類,強迫人類給予最大獎勵。
到目前為止,人工智能的研究方向主要在設(shè)計出善于做決策的機(jī)器上,但這與做出好的決策還是有差別的。就人工智能來講,無論他的算法多么優(yōu)秀,模型多么精準(zhǔn),如果他不能了解人類行為的潛在偏好 和其中的價值,那么它就很可能會做出一個在我們普通人看來愚蠢至極的角色。而想要化解這種風(fēng)險,就需要讓人工智能實現(xiàn)與人類的相容性。
學(xué)者安卡-德拉甘 的觀點比較獨特,他認(rèn)為機(jī)器人必須與人們實際互動,并理智的對待它們,人必須正式進(jìn)入人工智能問題的定義中來,而且有些沖突是因為機(jī)器人和程序員缺乏對彼此意圖的了解而產(chǎn)生的。
他說,機(jī)器人需要問我們問題,它們應(yīng)該對自己的工作感到好奇,它們應(yīng)該讓人類程序員感到難纏直道每個人的思想 意見完全一致。
普林斯頓大學(xué)的教授湯姆-格里菲斯 也認(rèn)為,能夠?qū)θ祟愋枨笞龀龊芎猛茢嗟闹悄芟到y(tǒng),必須具有良好的人類行為生成模型。機(jī)器學(xué)習(xí)的關(guān)鍵必然是人類的學(xué)習(xí),人類是制造思考機(jī)器時 要參考的最好的例子,我們可以通過識別影響人類認(rèn)知的預(yù)設(shè)概念的數(shù)量和性質(zhì),讓計算機(jī)更接近人類性能。
也有學(xué)者對人工智能 對人類未來的影響時樂觀態(tài)度。哈佛大學(xué)的心理學(xué)系教授 史蒂芬-平克就認(rèn)為,末日預(yù)言 源自我們的心理偏見,沒有任何一個復(fù)雜系統(tǒng)定律表明,智能主體一定會變成無情的自大狂,因為機(jī)器對社會所造成的危險不是來自本身,而是來自人類如何看待它。
2004年的諾貝爾物理學(xué)獎得主 弗蘭克-維爾切克認(rèn)為,未來人類將通過智能設(shè)備 變得更強,與自主的人工智能共存,整個生態(tài)系統(tǒng)會因此得到迅速進(jìn)化,進(jìn)化的先鋒將不是人類,而是機(jī)器人和超級頭腦。
牛津大學(xué)的物理學(xué)家戴維-杜維奇也認(rèn)為,相當(dāng)于人類水平的人工智能會為我們帶來一個更好的世界,而不是末日,他希望通用人工智能 可以擁有自己的頭腦,可以自由作出假設(shè),但不得不說這個提議是很危險的,有些學(xué)者對人類未來的想象比較謹(jǐn)慎。
企業(yè)家丹尼爾-西里斯說:問題不在于人工智能 在變得特別強大后,是不是會傷害我們,問題也不在于 他們是否會一直按照人類的最佳利益行事,問題在于從長遠(yuǎn)角度看,人工智能是否能幫助我們找到出路。他構(gòu)想了超級人工智能的4種場景,分別是和國家結(jié)盟和企業(yè)結(jié)盟和人類的目標(biāo)不一致,和人類的目標(biāo)一致。
但是他強調(diào),我們可能,不能完全理解或控制我們的命運,但我們有機(jī)會朝著符合我們價值努力,未來不是會發(fā)生在我們身上的事情,而是我們將要建造的東西。
物理學(xué)家尼爾-費爾德 是微觀裝配實驗室網(wǎng)絡(luò)創(chuàng)始人,說起人工智能的安全問題,他認(rèn)為歷史表明 占主導(dǎo)地位的情節(jié),既不是烏托邦式的,也不是反烏托邦式的,通常我們最后都是在這兩個極端之間混日子。尼爾說掌控人工智能肯定可以增強人類的能力,但是作為經(jīng)驗上看工具的人工智能還不能確定在未來發(fā)展得比人類做事更有效。他認(rèn)為當(dāng)前對人工智能的狂熱即將成為歷史,之后還有一個更重要的階段,那就是人工智能和自然智能的結(jié)合。
好了,到這里我們今天的內(nèi)容就差不多了,我們梳理了聰明人在討論人工智能的時候關(guān)注的三個焦點。
一是,人工智能有沒有可能替代人類。
二是,我們該怎么看待人工智能。
三是,人工智能會給人類的未來帶來怎樣的影響。
大家也都發(fā)現(xiàn)了,這些問題沒有絕對的答案,每個聰明人都有自己的看法,而我們能做的是用他們的想法在自己的腦海里劃出新的火花。
責(zé)任編輯:Ct
評論
查看更多