一份由26名專家聯(lián)合撰寫的報告,對人工智能技術的潛在威脅發(fā)出警告。他們認為,這項技術可能在未來5到10年催生新型網(wǎng)絡犯罪、實體攻擊和政治顛覆。
這份100頁的報告標題為《人工智能的惡意用途:預測、預防和緩解》(The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation),參與撰寫的專家來自14家不同的機構和組織,包括牛津大學、劍橋大學和埃隆·馬斯克(Elon Musk)的OpenAI等。
作者在其中詳細闡述了人工智能可能在未來幾年做出哪些令人們普遍反感的事情。由于人工智能在很多方面的能力都遠超人類,所以該報告認為,這種技術現(xiàn)在會幫助敵對國家、犯罪分子和***展開精準而高效的攻擊,不僅能夠擴大范圍,還可以提高效率。
該報告寫道:“隨著人工智能越來越強大,越來越普及,我們預計人工智能系統(tǒng)的廣泛應用將導致現(xiàn)有威脅的擴大,還會引發(fā)新的威脅,甚至改變典型的威脅特征?!彼麄冞€警告稱,由于人工智能可以擴大規(guī)模,并減輕人類的負擔,所以攻擊成本也會大幅降低。類似地,由于可以借助這種系統(tǒng)來完成人類通常難以完成的任務,所以也有可能出現(xiàn)新的攻擊。
具體來說,該報告認為,與自動攻擊、釣魚、語音合成、數(shù)據(jù)中毒有關的網(wǎng)絡攻擊將會增多。無人機以及全自動和半自動駕駛系統(tǒng)的出現(xiàn)也會構成新的風險,包括多輛無人駕駛汽車故意撞擊,使用數(shù)千架無人機協(xié)同攻擊,把商用無人機變成人臉識別刺客,控制關鍵基礎設施以索要贖金。在政治方面,人工智能還可以用于左右民眾觀點,形成高度精準的宣傳,傳播虛假但卻可信的文章和視頻。人工智能還能在私有和公共空間催生更好的監(jiān)控技術。
為了緩解這些威脅,該報告給出了5點建議:
人工智能和機器學習研究人員應該承認其研究成果是雙刃劍。
政策制定者應該與技術人員密切合作,調查、預防和緩解人工智能可能的惡意使用方式。
應該向電腦安全等其他高風險技術領域學習一些方法,將其應用于人工智能領域。
應該在這些領域優(yōu)先形成規(guī)范和道德框架。
討論這些挑戰(zhàn)時所涵蓋的利益相關者和專家范圍應該擴大。
除此之外,報告作者還認為,應該“重新思考”網(wǎng)絡安全,并對制度化和技術性解決方案展開投資。他們還表示,開發(fā)者應該形成“責任文化”,考慮數(shù)據(jù)共享和開放性所帶來的力量。
未來智能實驗室是人工智能學家與科學院相關機構聯(lián)合成立的人工智能,互聯(lián)網(wǎng)和腦科學交叉研究機構。由互聯(lián)網(wǎng)進化論作者,計算機博士劉鋒與中國科學院虛擬經(jīng)濟與數(shù)據(jù)科學研究中心石勇、劉穎教授創(chuàng)建。
未來智能實驗室的主要工作包括:建立AI智能系統(tǒng)智商評測體系,開展世界人工智能智商評測;開展互聯(lián)網(wǎng)(城市)云腦研究計劃,構建互聯(lián)網(wǎng)(城市)云腦技術和企業(yè)圖譜,為提升企業(yè),行業(yè)與城市的智能水平服務。
-
人工智能
+關注
關注
1791文章
46686瀏覽量
237176
原文標題:人工智能的惡意用途:預測、預防和緩解
文章出處:【微信號:AItists,微信公眾號:人工智能學家】歡迎添加關注!文章轉載請注明出處。
發(fā)布評論請先 登錄
相關推薦
評論