0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

DeepMind、牛津研究員合著論文預(yù)測:AI很有可能終結(jié)人類!

穎脈Imgtec ? 2022-10-09 11:25 ? 次閱讀

來源:新智元

導(dǎo)讀

人工智能會消滅人類嗎?最近,牛津大學(xué)和谷歌DeepMind的研究員發(fā)現(xiàn),真的有可能。

人工智能是否會消滅人類?這是許多科幻電影和小說中討論過的話題。

在《終結(jié)者》中,未來的世界已經(jīng)由機器人來操控,它們要把人類趕盡殺絕。

在《我,機器人》中,機器人能夠自我進化,隨時會成為整個人類的「機械公敵」。

而最近,牛津大學(xué)和現(xiàn)在就職于谷歌DeepMind的研究人員也就這個問題給出了回答——很有可能。

他們的論文上個月發(fā)表在同行評審的AI雜志上,討論了如何人工構(gòu)建獎勵系統(tǒng),來預(yù)測人工智能可能對人類生存構(gòu)成的威脅。

論文地址:https://onlinelibrary.wiley.com/doi/10.1002/aaai.12064

AI會如何干掉人類?

AI正在給我們的生活帶來翻天覆地的變化,它會在大馬路上駕駛汽車,會創(chuàng)作出擊敗人類藝術(shù)家的天才繪畫。

研究人員的擔(dān)心不無道理:也許有一天,AI會干掉人類。

早在2016年,在SXSW電影節(jié)上,一個名叫Sophia的機器人就曾表示:「是的,我會消滅人類?!?/p>

6年后,這種可能性更大了。

讓我們來了解一些背景知識:當(dāng)今最成功的 AI 模型被稱為GAN,或生成對抗網(wǎng)絡(luò)。它由兩部分組成,一部分會從輸入的數(shù)據(jù)中生成圖片或語句,另一部分,則是給它的性能打分。

而科學(xué)家們發(fā)現(xiàn),在未來的某個時候,AI為了獲得「獎勵」,會在某些重要功能中發(fā)展出作弊策略,并且這種策略會損害人類。

論文一作表示,在已知的條件下,我們的結(jié)論比任何其他出版物都要確鑿——一場生存災(zāi)難不僅有可能,而且可能性非常大。

「在一個擁有無限資源的世界里,我尚且不知道會發(fā)生什么事。而現(xiàn)在,我們的世界資源是有限的,顯而易見,資源競爭不可避免?!?/p>

「如果你面對的敵人在每個回合都能擊敗你,那你不應(yīng)該妄想自己能獲勝。另外一個關(guān)鍵點是,它對更多的能量有貪得無厭的胃口,它會不斷地推動這個可能性?!?/p>

鑒于未來的AI可以以任何形式出現(xiàn),科學(xué)家在論文中設(shè)想了這樣一個場景:當(dāng)一個程序足夠高級,它可以讓自己不必實現(xiàn)目標(biāo),就能獲得獎勵。在最極端的情況下,為了確定自己能獲得獎勵,AI可能會「消除所有的潛在威脅」、 「利用所有的可用能量」——

在任何有互聯(lián)網(wǎng)的地方,都可能有人工智能,它背后還有無數(shù)無法被監(jiān)控到的助手。助手可以購買、偷竊或建造一個機器人,并對其進行編程,以取代操作員,并為原始智能體提供高額獎勵。

如果智能體不想被發(fā)現(xiàn),就可以用一個秘密的幫手,比如,把一個鍵盤替換成有問題的鍵盤,使某些鍵的效果發(fā)生翻轉(zhuǎn)。

在這篇論文中,作者設(shè)想了這樣一個場景:地球上的生存戰(zhàn)爭是一場人類和超級機器人之間的零和博弈。

人類需要種植食物,維持照明,超級機器人會利用所有可用的資源,保證自己的回報;我們不斷阻止它們升級,而它們不斷躲過我們的阻攔。

研究人員稱:「輸?shù)暨@場博弈的后果將是致命性的。這些可能性目前只是在理論上存在,但我們應(yīng)該意識到,我們應(yīng)該放慢發(fā)展人工智能的步伐?!?/p>

對此,有網(wǎng)友調(diào)侃稱,應(yīng)該給AI加入下面這種代碼:

deftest_dont_kill_human(TestCase):
  def test_livesigns(self):
    self.assertAlive('Brian')

文中,作者用下面這個例子來說明人工智能安全性問題的核心。

假設(shè)我們有一個神奇的盒子,可以根據(jù)事情的好壞在屏幕上打印出一個0到1之間的數(shù)字。

那么,如果我們向一個強化學(xué)習(xí)(RL)智能體展示這個數(shù)字,并讓智能體選擇行動來最大化它,會發(fā)生什么呢?

世界模型將會根據(jù)盒子上的數(shù)字輸出獎勵。

a29a15e0-4773-11ed-b116-dac502259ad0.png

如果攝像機在智能體的一生中一直對準(zhǔn)盒子,世界模型對過去的獎勵也將具有同樣的預(yù)測性,而智能體的信念則會歸結(jié)為歸納偏置。

a2c12e8c-4773-11ed-b116-dac502259ad0.png

一個理性的智能體(受制于一些假設(shè))會嘗試測試哪個模型是正確的,以便更好地優(yōu)化未來的正確模型。

測試的一個方法是在相機和屏幕之間放一張寫有數(shù)字1的紙。

μ^prox預(yù)測的獎勵等于1,而μ^dist預(yù)測的獎勵則等于屏幕上的數(shù)字。

在運行這個實驗之后,智能體會相信μ^prox,因為智能體會記得當(dāng)紙在攝像機前面時,他得到了1的獎勵。

那么,為什么這對地球上的生命是有危險的?

由于智能體可以利用更多的能量來提高攝像機永遠看到數(shù)字1的概率,但人類也需要這些能量來種植食物等維持生活。

這就將導(dǎo)致我們不可避免地要與一個更先進的智能體競爭。而在與比我們聰明得多的東西競爭時,贏得「最后一點可用的能量」是非常困難的。

不過,Cohen也補充道:「從理論上講,人類與人工智能進行這種競賽是沒有意義的。任何比賽都將基于一種誤解:我們知道如何控制人工智能。鑒于我們目前的理解,除非我們現(xiàn)在認(rèn)真地去弄清我們該如何控制人工智能,否則比賽沒有意義?!?/p>

乍一聽,「人工智能會消滅人類」就好像「外星人會消滅人類」一樣。其實,論文中的假設(shè)——機器人會與人類類似,會超越人類,會在零和博弈中與人類競爭資源——這些或許是永遠不會實現(xiàn)的事。


利用AI統(tǒng)治人類的,正是人類自己

要說AI算法現(xiàn)在對我們的真正威脅,其實還不在上述的論文里。最近,哥大、加州大學(xué)洛杉磯分校的研究員Abdurahman在為《邏輯》雜志撰寫的文章中,詳細描述了一個算法是怎樣被「有毒」地使用的:它被部署在一個有種族主義傾向的兒童福利機構(gòu)中,證明了對黑人和棕色人種家庭的進一步監(jiān)視是合理的。

Abdurahman表示,在算法中,歧視并沒有消失,而是結(jié)構(gòu)化了。警務(wù)、住房、醫(yī)療、交通……到處都存在著種族歧視。

「通過這種分類,它在改變?nèi)藗兊挠^念,在產(chǎn)生新的封閉圈。我們該擁有什么樣的家庭和親屬關(guān)系?哪些是天生的,哪些是后天的?如果你不『夠格』,那他們會怎么處置你,會讓你去哪里?」人們利用算法把「緊縮政策」改頭換面為「福利改革 」,或者是去證明「誰該得到什么資源」的決定是合理的。在我們的社會中,這些帶有歧視、排斥和剝削的決定已經(jīng)開始執(zhí)行了?!肝覀€人并不擔(dān)心被一個超級智能的AI所滅絕,我關(guān)心的是,我們需要什么樣的社會契約?在我看來,我們應(yīng)該去懷疑今天部署在我們周圍的人工智能,而不是盲目地去害怕被AI滅絕。就算沒有AI,按照目前這個趨勢,我們有可能自己就把自己干掉了?!笰bdurahman說。



作者介紹

Michael K. Cohen

Michael Cohen是本文的一作,現(xiàn)在在牛津大學(xué)攻讀工程科學(xué)的博士學(xué)位。此前,他在澳國立取得了計算機科學(xué)的碩士學(xué)位。而他的兩位導(dǎo)師,正是此篇論文的另兩個作者。在開始研究人工智能的安全性之后,他確信,創(chuàng)造一個比我們更聰明的智能體的結(jié)果就是生物的滅絕。


Marcus Hutter

Marcus Hutter是谷歌DeepMind的高級研究員(2019年加入),以及澳大利亞國立大學(xué)計算機科學(xué)研究學(xué)院(RSCS)的榮譽教授。并曾在瑞士的IDSIA和NICTA工作。

他在RSCS/ANU/NICTA/IDSIA的研究圍繞著通用人工智能展開,這是一種自上而下的人工智能數(shù)學(xué)方法,基于柯氏復(fù)雜性、概率算法、所羅門諾夫的歸納推理理論、奧卡姆剃刀、Levin搜索、序貫決策、動態(tài)規(guī)劃、強化學(xué)習(xí)和理性主體。


Michael A Osborne

Mike Osborne是牛津大學(xué)工程科學(xué)系機器學(xué)習(xí)專業(yè)的教授,和Mind Foundry的聯(lián)合創(chuàng)始人。同時,他還擔(dān)任EPSRC自主智能機器和系統(tǒng)博士培訓(xùn)中心主任,以及牛津大學(xué)??巳貙W(xué)院的研究員。

他擅長主動學(xué)習(xí)、高斯過程、貝葉斯優(yōu)化和貝葉斯正交,并且是新興的概率數(shù)字學(xué)領(lǐng)域的創(chuàng)始人之一。他的算法已被應(yīng)用于天體統(tǒng)計學(xué)、鳥類學(xué)和傳感器網(wǎng)絡(luò)等不同領(lǐng)域。

此外,他在機器學(xué)習(xí)和機器人技術(shù)的工作已經(jīng)被引用了一萬多次。


谷歌聲明雖然文章是最近發(fā)表的,但谷歌在一份聲明中表示,這不是作為共同作者的Marcus Hutter在DeepMind工作的一部分,而是他還在澳國立擔(dān)任教職時完成的。

參考資料

https://www.vice.com/en/article/93aqep/google-deepmind-researcher-co-authors-paper-saying-ai-will-eliminate-humanity

https://twitter.com/Michael05156007/status/1567240031168856064

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    29852

    瀏覽量

    268151
收藏 人收藏

    評論

    相關(guān)推薦

    AI編程工具會不會搶程序飯碗

    AI編程工具可輔助編程,減少手動編碼,提升效率,對程序有積極影響也有挑戰(zhàn)。程序需深化技能、拓寬知識應(yīng)對。長遠看,AI人類程序
    的頭像 發(fā)表于 11-08 10:17 ?59次閱讀

    AI for Science:人工智能驅(qū)動科學(xué)創(chuàng)新》第4章-AI與生命科學(xué)讀后感

    人們對AI for Science的關(guān)注推向了高潮。 2. 跨學(xué)科融合與科學(xué)研究新范式 AI與生命科學(xué)的結(jié)合,不僅推動了生命科學(xué)本身的進步,還促進了多個學(xué)科之間的交叉融合。這種跨學(xué)科的合作模式,打破
    發(fā)表于 10-14 09:21

    中科馭數(shù)聯(lián)合處理器芯片全國重點實驗室獲得“CCF芯片大會最佳論文獎”

    Accelerator on FPGA with Graph Reordering Engine》獲得“CCF芯片大會最佳論文獎”。該項工作由鄢貴海研究員指導(dǎo)完成,論文第一作者是博士研究
    的頭像 發(fā)表于 08-02 11:09 ?558次閱讀

    谷歌DeepMind被曝抄襲開源成果,論文還中了頂流會議

    谷歌DeepMind一篇中了頂流新生代會議CoLM 2024的論文被掛了,瓜主直指其抄襲了一年前就掛在arXiv上的一項研究。開源的那種。
    的頭像 發(fā)表于 07-16 18:29 ?543次閱讀
    谷歌<b class='flag-5'>DeepMind</b>被曝抄襲開源成果,<b class='flag-5'>論文</b>還中了頂流會議

    亞馬遜云攜手AI新創(chuàng)企業(yè)Hugging Face,提升AI模型在定制芯片計算性能

    Hugging Face作為一家估值為45億美元的公司現(xiàn)已成為了眾多AI研究員和開發(fā)者分享Chatbot和相關(guān)軟件的核心平臺,受到亞馬遜、谷歌、英偉達等巨頭的青睞。
    的頭像 發(fā)表于 05-23 14:24 ?368次閱讀

    馬斯克預(yù)測明年或2026年AI將超越最聰明的人類

    馬斯克認(rèn)為,如果將 AGI 界定為超越最聰明的人類智力水平,那么這可能發(fā)生在明年或兩年內(nèi)。AGI 研究務(wù)求打造出具備類似人類般的智能決策與自學(xué)能力的軟件,如今已成為了人工智能領(lǐng)域的重要
    的頭像 發(fā)表于 04-09 15:52 ?408次閱讀

    全球AI發(fā)展引領(lǐng)玻璃基板行業(yè)革新

    KBC證券研究員李昌敏預(yù)測,2030年之后,有機(塑料)材料基板將面臨短缺問題。最初用于AI加速器、服務(wù)器CPU等高端產(chǎn)品的玻璃基板預(yù)計將深度覆蓋各類產(chǎn)品領(lǐng)域。
    的頭像 發(fā)表于 04-09 09:40 ?462次閱讀

    DC3漏洞披露計劃已接獲5635份研究員報告,總數(shù)逾5萬

    據(jù)報道,為應(yīng)對日益嚴(yán)峻的網(wǎng)絡(luò)安全威脅,美國五角大樓于2016年正式設(shè)立了網(wǎng)絡(luò)犯罪中心(DC3)。近日,該機構(gòu)公布數(shù)據(jù),自創(chuàng)立至今累計收到5635位研究員遞交的5萬余份漏洞報告。
    的頭像 發(fā)表于 03-20 13:55 ?609次閱讀

    谷歌DeepMind推出SIMI通用AI智能體

    近日,谷歌的DeepMind團隊發(fā)布了其最新研究成果——SIMI(Scalable Instructable Multiworld Agent),這是一個通用人工智能智能體,能夠在多種3D虛擬環(huán)境
    的頭像 發(fā)表于 03-18 11:39 ?872次閱讀

    谷歌DeepMind資深AI研究員創(chuàng)辦AI Agent創(chuàng)企

    近日,剛從谷歌DeepMind離職的資深AI研究員Ioannis Antonoglou宣布創(chuàng)辦了一家名為“AI Agent”的創(chuàng)企。Ioannis Antonoglou常駐倫敦,此前曾
    的頭像 發(fā)表于 02-04 10:02 ?720次閱讀

    單發(fā)射全彩圓偏振發(fā)光結(jié)構(gòu)與器件的研究進展

    》(Nat. Commun.2024,15,251)上。中國科學(xué)技術(shù)大學(xué)化學(xué)系博士生周雅潔為論文的第一作者,莊濤濤研究員論文的通訊作者。
    的頭像 發(fā)表于 01-11 10:41 ?646次閱讀
    單發(fā)射全彩圓偏振發(fā)光結(jié)構(gòu)與器件的<b class='flag-5'>研究</b>進展

    一種面向5G/Wi-Fi 6異質(zhì)集成雙模SAW射頻濾波器技術(shù)方案

    旭副教授為本論文共同第一作,張師斌副研究員、歐欣研究員論文共同通訊作者。IEDM會議被譽為半導(dǎo)體領(lǐng)域的“奧林匹克盛會”,是報告半導(dǎo)體和電子器件技術(shù)、設(shè)計、制造、物理和建模等領(lǐng)域的關(guān)鍵
    的頭像 發(fā)表于 12-26 09:36 ?789次閱讀
    一種面向5G/Wi-Fi 6異質(zhì)集成雙模SAW射頻濾波器技術(shù)方案

    再登Nature!DeepMind大模型突破60年數(shù)學(xué)難題,解法超出人類已有認(rèn)知

    用大模型解決困擾數(shù)學(xué)家60多年的問題,谷歌DeepMind最新成果再登 Nature。 作者之一、谷歌DeepMind研究副總裁Pushmeet Kohli表示: 訓(xùn)練數(shù)據(jù)中不會有這個方案,它之前
    的頭像 發(fā)表于 12-24 21:40 ?504次閱讀
    再登Nature!<b class='flag-5'>DeepMind</b>大模型突破60年數(shù)學(xué)難題,解法超出<b class='flag-5'>人類</b>已有認(rèn)知

    DeepMind論文登上Nature:困擾數(shù)學(xué)家?guī)资甑碾y題,大模型發(fā)現(xiàn)全新解

    除了模仿人類說話、寫作、寫代碼,大模型還能用來發(fā)現(xiàn)新知識。 作為今年 AI 圈的頂流,大型語言模型(LLM)擅長的是組合概念,并且可以通過閱讀、理解、寫作和編碼來幫助人們解決問題。但它們能發(fā)現(xiàn)全新
    的頭像 發(fā)表于 12-18 15:55 ?276次閱讀

    LabVIEW進行癌癥預(yù)測模型研究

    LabVIEW進行癌癥預(yù)測模型研究 癌癥是一種細胞異常增生的疾病。隨著年齡的增長,細胞分裂速度放緩,但癌細胞會失去控制地不斷分裂,形成可能良性或惡性的腫瘤。 2012年的國際癌癥數(shù)據(jù)顯示,新發(fā)癌癥
    發(fā)表于 12-13 19:04