超級(jí)智能 AI 不會(huì)有人類(lèi)的情感,因此在本質(zhì)上不會(huì)是仁慈或惡毒的。
這么多的可能性;我們已經(jīng)面對(duì)如此多的現(xiàn)實(shí)。無(wú)論普通人是否意識(shí)到,人工智能 (AI) 和機(jī)器學(xué)習(xí) (ML) 已經(jīng)控制了他們大部分的在線(xiàn)生活。例如,這些技術(shù)決定了他們的新聞提要中顯示的內(nèi)容,并定制了他們?cè)谠L(fǎng)問(wèn)亞馬遜時(shí)看到的內(nèi)容。
現(xiàn)在,算法決定了我們的保險(xiǎn)費(fèi)率是多少,我們是否有資格獲得貸款,或者我們的簡(jiǎn)歷是否會(huì)被選中進(jìn)行進(jìn)一步審查。人工智能和機(jī)器學(xué)習(xí)現(xiàn)在在醫(yī)學(xué)領(lǐng)域很“熱門(mén)”,可以進(jìn)行診斷、預(yù)測(cè)疾病爆發(fā)等等。
我們正面臨物聯(lián)網(wǎng) (IoT) 的一場(chǎng)革命——無(wú)人駕駛汽車(chē)、智能家居、智能家電、智能電網(wǎng),甚至是智能城市。醫(yī)療專(zhuān)業(yè)人員遠(yuǎn)程監(jiān)控患者,當(dāng)然,我們不能忘記 Siri 和 Alexa。
確實(shí),我們生活在一個(gè)技術(shù)的美好世界,該技術(shù)有望繼續(xù)讓我們的生活更輕松、更高效。
權(quán)力和責(zé)任
所有這些改變我們生活的權(quán)力也帶來(lái)了更大的責(zé)任——濫用這種權(quán)力是許多人(例如埃隆·馬斯克)擔(dān)心的問(wèn)題。最近,在一次采訪(fǎng)中,Elon 談到了 AI 和 ML:
“我們正在迅速朝著超越任何人類(lèi)的數(shù)字超級(jí)智能邁進(jìn)——我認(rèn)為這很明顯……如果一家公司或一小群人設(shè)法開(kāi)發(fā)出神一樣的數(shù)字超級(jí)智能,他們可以接管世界……至少當(dāng)有一個(gè)邪惡的獨(dú)裁者時(shí),那個(gè)人會(huì)死,但對(duì)于人工智能來(lái)說(shuō),就不會(huì)死。它將永遠(yuǎn)存在,然后你將擁有一個(gè)不朽的獨(dú)裁者,我們永遠(yuǎn)無(wú)法逃脫。”
馬斯克已經(jīng)加入了許多研究人員和科學(xué)家的行列,例如斯蒂芬霍金,他們預(yù)測(cè)如果 AI 和 ML 研究和實(shí)施沒(méi)有得到嚴(yán)格監(jiān)管,就會(huì)出現(xiàn)這樣的世界末日。
這場(chǎng)爭(zhēng)論的另一面是反對(duì)者,他們堅(jiān)持認(rèn)為 AI 和 ML 永遠(yuǎn)不會(huì)取代完整的人類(lèi)智能,因此是可以控制的。
AI 和 ML 到底有什么危險(xiǎn)?
這是爭(zhēng)議的關(guān)鍵。目前,我們擁有所謂的窄人工智能或弱人工智能,旨在完成一組離散任務(wù)(駕駛汽車(chē)、保護(hù)電網(wǎng)、下棋、通過(guò)面部識(shí)別識(shí)別人等)。
然而,許多人的長(zhǎng)期目標(biāo)是開(kāi)發(fā)能夠執(zhí)行認(rèn)知(思考、推理)任務(wù)的所謂強(qiáng)人工智能。例如,想象一下一個(gè)致命的武器系統(tǒng),它可以在沒(méi)有任何人為干預(yù)或控制的情況下決定何時(shí)何地部署其武器。這樣的制度,在一個(gè)民族國(guó)家的手中,可能會(huì)讓世界其他地方屈服。
另一個(gè)危險(xiǎn)?超級(jí)智能 AI 不會(huì)有人類(lèi)的情感,因此在本質(zhì)上不會(huì)是仁慈或惡毒的。但是,它將是有效的,并采取“最短路徑”來(lái)實(shí)現(xiàn)目標(biāo),而不考慮它在此過(guò)程中可能會(huì)破壞什么。例如,假設(shè)一臺(tái)配備人工智能的機(jī)器的任務(wù)是為新的鐵路系統(tǒng)清理大片土地。如果在執(zhí)行這項(xiàng)任務(wù)的過(guò)程中,它破壞了地下輸油管道,從而釋放出破壞該地區(qū)整個(gè)生態(tài)系統(tǒng)并使當(dāng)?shù)厮到y(tǒng)處于危險(xiǎn)之中的有毒污泥,會(huì)發(fā)生什么?如果保護(hù)生態(tài)系統(tǒng)沒(méi)有被定義為機(jī)器的目標(biāo)之一,它可能會(huì)不顧一切地繼續(xù)下去。
那些擔(dān)心這些場(chǎng)景(認(rèn)知 AI 和 ML 不斷學(xué)習(xí)并變得比人類(lèi)更“聰明”)的人表示,我們必須弄清楚如何在 AI 系統(tǒng)變得超級(jí)智能之前將我們自己的目標(biāo)嵌入到系統(tǒng)中。
預(yù)計(jì)短期內(nèi)不會(huì)出現(xiàn)革命,而是進(jìn)化認(rèn)知人工智能。事實(shí)上,即使是專(zhuān)家也不同意超智能 AI 成為現(xiàn)實(shí)需要多長(zhǎng)時(shí)間,如果——確實(shí)——真的如此的話(huà)。但隨著技術(shù)的發(fā)展,我們確實(shí)必須提前計(jì)劃可能發(fā)生的事情,以免發(fā)生在我們身上,惡意的人會(huì)卷入其中或出現(xiàn)意想不到的后果。
許多認(rèn)知人工智能不會(huì)產(chǎn)生可怕的后果,但可能性仍然令人擔(dān)憂(yōu)。想想今天的許多學(xué)生已經(jīng)找到了為他們寫(xiě)論文和論文的方法。有些公司,例如Wow Grade.net,提供寫(xiě)作和內(nèi)容創(chuàng)作服務(wù)。未來(lái)使用認(rèn)知人工智能將允許學(xué)生簡(jiǎn)單地翻轉(zhuǎn)一個(gè)主題,讓超級(jí)智能技術(shù)做出關(guān)于論文的所有決定、識(shí)別資源并創(chuàng)建“原創(chuàng)”作文。雖然學(xué)生顯然沒(méi)有完成這項(xiàng)工作,但如果孤立地考慮,后果并不嚴(yán)重,盡管學(xué)生實(shí)際上沒(méi)有學(xué)習(xí)任何東西(除了如何作弊)這一事實(shí)對(duì)未來(lái)來(lái)說(shuō)并不是一個(gè)好兆頭。
讓我們回到我們之前的場(chǎng)景中,一個(gè)人工智能系統(tǒng)的任務(wù)是做一些有益的事情,但無(wú)意中導(dǎo)致了毀滅性的后果;i、 例如,生態(tài)系統(tǒng)和當(dāng)?shù)毓┧獾狡茐摹3?jí)智能AI避免此類(lèi)行為本應(yīng)在中編程。
因此,超智能人工智能的整個(gè)問(wèn)題似乎不是人工智能的效率(它將是完全有效的),而是將其認(rèn)知智能與我們自己的人類(lèi)目標(biāo)相結(jié)合。如果我們只關(guān)注效率,那么我們將通過(guò)人工智能選擇的任何方式得到我們想要的東西。
規(guī)劃和法規(guī)必須從現(xiàn)在開(kāi)始在波多黎各舉行
的2015 年生命未來(lái)人工智能安全會(huì)議上,大多數(shù)人工智能研究人員預(yù)測(cè),認(rèn)知人工智能將在 2060 年出現(xiàn)在我們面前。如果是這樣,那么安全研究必須現(xiàn)在就開(kāi)始。
人類(lèi)目前統(tǒng)治著地球,因?yàn)槲覀兪堑厍蛏纤形锓N中最聰明的。但是,當(dāng)一個(gè)超級(jí)智能的 AI 繼續(xù)自我學(xué)習(xí)和自我改進(jìn)時(shí)會(huì)變得更聰明時(shí)會(huì)發(fā)生什么?屆時(shí)誰(shuí)來(lái)統(tǒng)治?
審核編輯 黃昊宇
-
AI
+關(guān)注
關(guān)注
87文章
29824瀏覽量
268117 -
人工智能
+關(guān)注
關(guān)注
1791文章
46671瀏覽量
237123 -
ML
+關(guān)注
關(guān)注
0文章
144瀏覽量
34581
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論