近年來(lái),一些悲觀的媒體與專(zhuān)家開(kāi)始擔(dān)憂(yōu)人工智能的高速發(fā)展將會(huì)對(duì)人類(lèi)自身的生存產(chǎn)生威脅,甚至連理論物理學(xué)家、《時(shí)間簡(jiǎn)史》的作者霍金都曾公開(kāi)告誡大眾:“完全人工智能的研發(fā)意味著人類(lèi)的末日”。特斯拉與Space X的創(chuàng)始人埃隆·馬斯克與霍金有大致相似的擔(dān)憂(yōu)。馬斯克說(shuō):我們必須非常小心人工智能。如果必須預(yù)測(cè)我們面臨的最大現(xiàn)實(shí)威脅,恐怕就是人工智能?!?/p>
李開(kāi)復(fù)博士在《人工智能》一書(shū)中提到了三種不同層級(jí)的人工智能來(lái)回答這個(gè)問(wèn)題。
一、弱人工智能(Weak AI)
弱人工智能(Weak AI)也稱(chēng)限制領(lǐng)域人工智能(Narrow AI)或應(yīng)用型人工智能(Applied AI),指的是專(zhuān)注于且只能解決特定領(lǐng)域問(wèn)題的人工智能。毫無(wú)疑問(wèn),今天我們看到的所有人工智能算法和應(yīng)用都屬于弱人工智能的范疇。
Alpha Go是弱人工智能的一個(gè)最好實(shí)例。Alpha Go在圍棋領(lǐng)域超越了人類(lèi)最頂尖選手,笑傲江湖。但Alpha Go的能力也僅止于圍棋(或類(lèi)似的博弈領(lǐng)域),下棋時(shí),如果沒(méi)有人類(lèi)的幫助(還記得Alpha Go與李世石比賽時(shí),幫機(jī)器擺棋的黃士杰博士嗎?),Alpha Go連從棋盒里拿出棋子并置于棋盤(pán)之上的能力都沒(méi)有,更別提下棋前向?qū)κ中卸Y、下棋后一起復(fù)盤(pán)等圍棋禮儀了。
一般而言,限于弱人工智能在功能上的局限性,人們更愿意將弱人工智能看成是人類(lèi)的工具,而不會(huì)將弱人工智能視為威脅。也就是說(shuō),弱人工智能在總體上只是一種技術(shù)工具,如果說(shuō)弱人工智能存在風(fēng)險(xiǎn),那也和人類(lèi)已大規(guī)模使用的其他技術(shù)沒(méi)有本質(zhì)的不同。只要嚴(yán)格控制,嚴(yán)密監(jiān)管,人類(lèi)完全可以像使用其他工具那樣,放心地使用今天的所有AI技術(shù)。
二、強(qiáng)人工智能(Strong AI)
強(qiáng)人工智能又稱(chēng)通用人工智能(Artificial general intelligence)或完全人工智能(Full AI),指的是可以勝任人類(lèi)所有工作的人工智能。
人可以做什么,強(qiáng)人工智能就可以做什么。這種定義過(guò)于寬泛,缺乏一個(gè)量化的標(biāo)準(zhǔn)來(lái)評(píng)估什么樣的計(jì)算機(jī)程序才是強(qiáng)人工智能。為此,不同的研究者提出了許多不同的建議。最為流行、被廣為接受的標(biāo)準(zhǔn)是圖靈測(cè)試。
(圖靈測(cè)試(The Turing test)由艾倫·麥席森·圖靈發(fā)明,指測(cè)試者與被測(cè)試者(一個(gè)人和一臺(tái)機(jī)器)隔開(kāi)的情況下,通過(guò)一些裝置(如鍵盤(pán))向被測(cè)試者隨意提問(wèn)。
進(jìn)行多次測(cè)試后,如果有超過(guò)30%的測(cè)試者不能確定出被測(cè)試者是人還是機(jī)器,那么這臺(tái)機(jī)器就通過(guò)了測(cè)試,并被認(rèn)為具有人類(lèi)智能圖靈測(cè)試一詞來(lái)源于計(jì)算機(jī)科學(xué)和密碼學(xué)的先驅(qū)阿蘭·麥席森·圖靈寫(xiě)于1950年的一篇論文《計(jì)算機(jī)器與智能》,其中30%是圖靈對(duì)2000年時(shí)的機(jī)器思考能力的一個(gè)預(yù)測(cè),目前我們已遠(yuǎn)遠(yuǎn)落后于這個(gè)預(yù)測(cè)。
但即便是圖靈測(cè)試本身,也只是關(guān)注于計(jì)算機(jī)的行為和人類(lèi)行為之間,從觀察者角度而言的不可區(qū)分性,并沒(méi)有提及計(jì)算機(jī)到底需要具備哪些具體的特質(zhì)或能力,才能實(shí)現(xiàn)這種不可區(qū)分性。
一般認(rèn)為,一個(gè)可以稱(chēng)得上強(qiáng)人工智能的程序,大概需要具備以下幾方面的能力:
1)存在不確定因素時(shí)進(jìn)行推理,使用策略,解決問(wèn)題,制定決策的能力;
2)知識(shí)表示的能力,包括常識(shí)性知識(shí)的表示能力;
3)規(guī)劃能力;
4)學(xué)習(xí)能力;
5)使用自然語(yǔ)言進(jìn)行交流溝通的能力;
6)將上述能力整合起來(lái)實(shí)現(xiàn)既定目標(biāo)的能力;
基于上面幾種能力的描述,我們大概可以想象,一個(gè)具備強(qiáng)人工智能的計(jì)算機(jī)程序會(huì)表現(xiàn)出什么樣的行為特征。一旦實(shí)現(xiàn)了符合這一描述的強(qiáng)人工智能,那我們幾乎可以肯定地說(shuō),所有人類(lèi)工作都可以由人工智能來(lái)取代。從樂(lè)觀主義的角度講,人類(lèi)到時(shí)就可以坐享其成,讓機(jī)器人為我們服務(wù),每部機(jī)器人也許可以一對(duì)一地替換每個(gè)人類(lèi)個(gè)體的具體工作,人類(lèi)則獲得完全意義上的自由,只負(fù)責(zé)享樂(lè),不再需要?jiǎng)趧?dòng)。
強(qiáng)人工智能的定義里,存在一個(gè)關(guān)鍵的爭(zhēng)議性問(wèn)題:強(qiáng)人工智能是否有必要具備人類(lèi)的“意識(shí)”(Consciousness)。有些研究者認(rèn)為,只有具備人類(lèi)意識(shí)的人工智能才可以叫強(qiáng)人工智能。另一些研究者則說(shuō),強(qiáng)人工智能只需要具備勝任人類(lèi)所有工作的能力就可以了,未必需要人類(lèi)的意識(shí)。
一旦牽涉“意識(shí)”,強(qiáng)人工智能的定義和評(píng)估標(biāo)準(zhǔn)就會(huì)變得異常復(fù)雜。而人們對(duì)于強(qiáng)人工智能的擔(dān)憂(yōu)也主要來(lái)源于此。不難設(shè)想,一旦強(qiáng)人工智能程序具備人類(lèi)的意識(shí),那我們就必然需要像對(duì)待一個(gè)有健全人格的人那樣對(duì)待一臺(tái)機(jī)器。那時(shí),人與機(jī)器的關(guān)系就絕非工具使用者與工具本身這么簡(jiǎn)單。擁有意識(shí)的機(jī)器會(huì)不會(huì)甘愿為人類(lèi)服務(wù)?機(jī)器會(huì)不會(huì)因?yàn)槟撤N共同訴求而聯(lián)合起來(lái)站在人類(lèi)的對(duì)立面?一旦擁有意識(shí)的強(qiáng)人工智能得以實(shí)現(xiàn),這些問(wèn)題將直接成為人類(lèi)面臨的現(xiàn)實(shí)挑戰(zhàn)。
三、超人工智能(Superintelligence)
假設(shè)計(jì)算機(jī)程序通過(guò)不斷發(fā)展,可以比世界上最聰明、最有天賦的人類(lèi)還聰明,那么,由此產(chǎn)生的人工智能系統(tǒng)就可以被稱(chēng)為超人工智能。
牛津大學(xué)哲學(xué)家、未來(lái)學(xué)家尼克·波斯特洛姆(Nick Bostrom)在他的《超級(jí)智能》一書(shū)中,將超人工智能定義為“在科學(xué)創(chuàng)造力、智慧和社交能力等每一方面都比最強(qiáng)的人類(lèi)大腦聰明很多的智能”。顯然,對(duì)今天的人來(lái)說(shuō),這是一種只存在于科幻電影中的想象場(chǎng)景。
與弱人工智能、強(qiáng)人工智能相比,超人工智能的定義最為模糊,因?yàn)闆](méi)人知道,超越人類(lèi)最高水平的智慧到底會(huì)表現(xiàn)為何種能力。如果說(shuō)對(duì)于強(qiáng)人工智能,我們還存在從技術(shù)角度進(jìn)行探討的可能性的話,那么,對(duì)于超人工智能,今天的人類(lèi)大多就只能從哲學(xué)或科幻的角度加以解析了。
首先,我們不知道強(qiáng)于人類(lèi)的智慧形式將是怎樣的一種存在。現(xiàn)在去談?wù)摮斯ぶ悄芎腿祟?lèi)的關(guān)系,不僅僅是為時(shí)過(guò)早,而是根本不存在可以清晰界定的討論對(duì)象。
其次,我們沒(méi)有方法,也沒(méi)有經(jīng)驗(yàn)去預(yù)測(cè)超人工智能到底是一種不現(xiàn)實(shí)的幻想,還是一種在未來(lái)(不管這個(gè)未來(lái)是一百年還是一千年、一萬(wàn)年)必然會(huì)降臨的結(jié)局。事實(shí)上,我們根本無(wú)法準(zhǔn)確推斷,到底計(jì)算機(jī)程序有沒(méi)有能力達(dá)到這一目標(biāo)。
顯然,如果公眾對(duì)人工智能會(huì)不會(huì)挑戰(zhàn)、威脅人類(lèi)有擔(dān)憂(yōu)的話,公眾心目中所擔(dān)心的那個(gè)人工智能,基本上屬于這里所說(shuō)的“強(qiáng)人工智能”和“超人工智能”。
我們到底該如何看待“強(qiáng)人工智能”和“超人工智能”的未來(lái)?它們會(huì)像Alpha Go那樣,以遠(yuǎn)超我們預(yù)料的速度降臨世間嗎?
科技發(fā)展瓶頸帶來(lái)的緩沖帶
那么究竟什么到什么時(shí)候強(qiáng)人工智能和超人工智能才能被制造出來(lái)?是有前提的,前提是人類(lèi)科技總是以加速度形式躍進(jìn)的基礎(chǔ)上的。一種更有可能出現(xiàn)的情況是:特定的科技如人工智能,在一定時(shí)間的加速發(fā)展后,會(huì)遇到某些難以逾越的技術(shù)瓶頸。
有關(guān)計(jì)算機(jī)芯片性能的摩爾定律(價(jià)格不變時(shí),集成電路上可容納的元器件數(shù)目每隔18到24個(gè)月便會(huì)增加一倍,性能也將提升一倍)就是一個(gè)技術(shù)發(fā)展遭遇瓶頸的很好例子。計(jì)算機(jī)芯片的處理速度,曾在1975年到2012年的數(shù)十年間保持穩(wěn)定的增長(zhǎng)趨勢(shì),卻在2013年前后顯著放緩。2015年,連提出摩爾定律的高登·摩爾(Gordon Moore)本人都說(shuō):“我猜我可以看見(jiàn)摩爾定律會(huì)在大約10年內(nèi)失效,但這并不是一件令人吃驚的事。”
正如原本受摩爾定律左右的芯片性能發(fā)展已遭遇技術(shù)瓶頸那樣,人工智能在從弱人工智能發(fā)展到強(qiáng)人工智能的道路上,未必就是一帆風(fēng)順的。從技術(shù)角度說(shuō),弱人工智能與強(qiáng)人工智能之間的鴻溝可能遠(yuǎn)比我們目前所能想象的要大得多。而且,最重要的是,由于基礎(chǔ)科學(xué)(如物理學(xué)和生物學(xué))尚缺乏對(duì)人類(lèi)智慧和意識(shí)的精確描述,從弱人工智能發(fā)展到強(qiáng)人工智能,其間有很大概率存在難以在短期內(nèi)解決的技術(shù)難題。今天,學(xué)者們對(duì)超人工智能何時(shí)到來(lái)的問(wèn)題眾說(shuō)紛紜。悲觀者認(rèn)為技術(shù)加速發(fā)展的趨勢(shì)無(wú)法改變,超越人類(lèi)智能的機(jī)器將在不遠(yuǎn)的將來(lái)得以實(shí)現(xiàn),那時(shí)的人類(lèi)將面臨生死存亡的重大考驗(yàn)。而樂(lè)觀主義者則更愿意相信,人工智能在未來(lái)相當(dāng)長(zhǎng)的一個(gè)歷史時(shí)期都只是人類(lèi)的工具,很難突破超人工智能的門(mén)檻。
-
摩爾定律
+關(guān)注
關(guān)注
4文章
630瀏覽量
78895 -
人工智能
+關(guān)注
關(guān)注
1789文章
46652瀏覽量
237090
原文標(biāo)題:怎么理解人工智能的“威脅論”?
文章出處:【微信號(hào):jingzhenglizixun,微信公眾號(hào):機(jī)器人博覽】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論