美國國防部副部長透露,特朗普政府對利用人工智能幫助軍方更高效、成本更低地執(zhí)行一些關(guān)鍵任務(wù)非常感興趣,五角大樓已經(jīng)準(zhǔn)備在未來6個月內(nèi)建成一個整合多個AI項目的新中心。于此同時,美蘭德公司發(fā)布報告,警告說AI在軍事任務(wù)中的應(yīng)用可能增加核戰(zhàn)爭的風(fēng)險。據(jù)美國非盈利新聞?wù){(diào)查組織CPI的報道,美國國防部的第二把手上周二透露,特朗普政府對利用人工智能幫助軍方更高效、成本更低地執(zhí)行一些關(guān)鍵任務(wù)非常感興趣。
美國國防部副部長、前波音公司高管Patrick Shanahan表示,人工智能(使用計算機系統(tǒng)執(zhí)行通常需要人類智能的任務(wù))可以幫助國防部更好地利用其收集的大量情報數(shù)據(jù)。
他還表示,AI可以用于加強軍事后勤能力,在正確的時間為士兵和維修人員提供適當(dāng)?shù)牧慵脱b備。AI也可以促進(jìn)更明智的決策,為軍方人員提供醫(yī)療服務(wù),從而節(jié)省成本。
Patrick Shanahan以及其他高級國防官員說,五角大樓已經(jīng)準(zhǔn)備在未來6個月內(nèi)建成一個“卓越中心”(Center for Excellence),將多個現(xiàn)有的與AI應(yīng)用相關(guān)的軍事計劃整合在一起,為這項工作帶來更多連貫性和動力。
在Shanahan向防務(wù)作家團(tuán)體(Defense Writers Group)發(fā)表上述講話的同一天,蘭德公司(RandCorporation)發(fā)布了一分公開報告,警告說AI在軍事任務(wù)中的應(yīng)用可能導(dǎo)致令人擔(dān)憂的負(fù)面影響,包括:AI可能通過巧妙地破壞核威懾的一個關(guān)鍵根基,從而增加核戰(zhàn)爭的風(fēng)險。蘭德公司是美國的一個智庫,主要為美國軍方提供調(diào)研和情報分析服務(wù)。
蘭德報告:人工智能可能在2040年前增加核戰(zhàn)爭的風(fēng)險
這份新報告題為《人工智能可能如何影響核戰(zhàn)爭的風(fēng)險》(How might Artificial Intelligence Affect the Risk of Nuclear War),報告指出,AI具有破壞核安全基礎(chǔ)的“巨大潛力”。這個嚴(yán)峻的結(jié)論是蘭德組織的一系列研討會得出的,參與該研討會的人員包括AI、核安全、政府和軍方的專家。這是蘭德公司Security 2040項目的一部分,旨在評估AI以及其他現(xiàn)金計算在未來20年里對核安全的影響。針對這一報告的結(jié)論,蘭德正在呼吁國際社會就此進(jìn)行對話。
這一討論的核心是核威懾的概念,即保證“相互保證毀滅”(MAD)或“保證報復(fù)”(assured retaliation),防止一方對有同等武裝的對手發(fā)射其核武器。這是一種冷酷、計算式的邏輯,至少在我們經(jīng)歷過的歷史階段,它至少阻止了一場全面的核戰(zhàn)爭,讓理性的、自我保護(hù)的大國選擇了對抗冷戰(zhàn)。只要沒有一個核力量維持有重大的先發(fā)制人的能力,MAD的概念就仍占據(jù)主導(dǎo)地位;如果一個武器系統(tǒng)能夠在第一次攻擊中幸存下來,并以同等的力量回?fù)?,那么“保證報復(fù)”就仍然有效。但是如果一方失去了反擊的能力,或者即使它開始認(rèn)為它有失去這種能力的風(fēng)險,這樣的體系就可能削弱并變得不穩(wěn)定。
這個方程式鼓勵國家行為者避免采取可能破壞當(dāng)前地緣政治平衡的行為,但是,正如我們在過去幾十年里一再看到的那樣,核大國仍欲圖“先發(fā)制人”。例如,隱形轟炸機、核潛艇的發(fā)展,以及最近俄羅斯總統(tǒng)弗拉基米爾·普京(Vladimir Putin)展示的“無敵”彈道導(dǎo)彈。
值得慶幸的是,這些發(fā)展都沒有真正地結(jié)束超級大國在第一次打擊后的反擊能力,但正如蘭德的新報告指出的那樣,先進(jìn)的人工智能技術(shù)與無人機、衛(wèi)星以及其他強大的傳感器等監(jiān)視技術(shù)相結(jié)合,可以削弱這種促使微妙的冷戰(zhàn)平衡得以保持的技術(shù)平衡。該報告稱,人工智能將通過對敵方安全基礎(chǔ)設(shè)施實行大規(guī)模監(jiān)控,發(fā)現(xiàn)人眼看不到的模式,揭示其破壞性的漏洞,從而實現(xiàn)這一目的。
報告作者之一,蘭德公司的一名工程師Andrew Lohn說:“這可不僅是電影里的場景,如果我們不加以小心,很簡單的事情就可能引發(fā)緊張局勢,將我們帶到危險的局面?!?/p>
一個暴露著的敵人突然意識到它很容易遭受“先發(fā)制人”,或者意識到它可能很快就會失去反擊的能力,將陷入一個非常不利的位置。這種情況可能會迫使處境不利的國家尋找能夠恢復(fù)平衡的方法,它的行動可能會變得像被逼到角落里的金剛狼一般。先進(jìn)的人工智能可能導(dǎo)致一個充滿不信任、競爭的新時代,孤注一擲的核大國會愿意承擔(dān)災(zāi)難性的、甚至毀滅性的風(fēng)險。
令人不安的是,即將失去“保證毀滅”可能會導(dǎo)致所謂的預(yù)防性戰(zhàn)爭,即一場以阻止敵方獲取攻擊能力為目的的戰(zhàn)爭。例如,在第一次世界大戰(zhàn)前的幾年中,德國嚴(yán)重?fù)?dān)憂作為其競爭對手的俄羅斯開始成為重要的地區(qū)強國。德國專家預(yù)測,俄羅斯將能夠在20年內(nèi)在武裝沖突中擊敗德國,這引發(fā)了一場預(yù)防性戰(zhàn)爭。而在二戰(zhàn)結(jié)束后不久,美國的一些思想家,包括哲學(xué)家伯特蘭·羅素和數(shù)學(xué)家約翰·馮諾伊曼,呼吁在蘇聯(lián)發(fā)展自己的核彈之前,對蘇聯(lián)實施先發(fā)制人的核打擊。
正如這些例子所顯示的那樣,事態(tài)的發(fā)展如果要破壞軍事優(yōu)勢或平衡狀態(tài)(即MAD),這一時期可能是非常危險的,會引發(fā)各種瘋狂的想法。正如蘭德公司的報告指出的那樣,我們可能正在進(jìn)入另一個這樣的轉(zhuǎn)型期。作者在報告中寫道,人工智能“有可能在2040年前加劇核戰(zhàn)略穩(wěn)定面臨的挑戰(zhàn),即使技術(shù)進(jìn)步的速度不大”。
蘭德公司的助理政策研究員,該報告的合作作者Edward Geist說,自主系統(tǒng)不需要通過殺人來破壞穩(wěn)定性,更有可能的是造成災(zāi)難性的戰(zhàn)爭。他在一份聲明中說:“新的人工智能能力可能會讓人們認(rèn)為,如果他們猶豫不決的話,他們就會失敗?!边@可能會導(dǎo)致他們扣扳機的手指更加躍躍試試。到那時,盡管人類仍處于“控制”狀態(tài),AI將使戰(zhàn)爭更有可能發(fā)生。
最后,作者警告說,未來可能會出現(xiàn)嚴(yán)峻的形勢,但作者也同意AI也可能迎來前所未有的穩(wěn)定時代。 他們寫道:
一些專家擔(dān)心,對AI的日益依賴可能導(dǎo)致新的災(zāi)難性錯誤。在技術(shù)成熟之前,使用AI可能會有壓力;它可能易受對抗性的破壞;或者敵方可能認(rèn)為AI比它實際上的能力更強大,導(dǎo)致他們犯下災(zāi)難性的錯誤。另一方面,如果核大國設(shè)法建立一種與AI可能提供的新能力相適應(yīng)的戰(zhàn)略穩(wěn)定形式,就可以減少不信任并緩解國際緊張局勢,從而降低核戰(zhàn)爭的風(fēng)險。
作者們表示,無法預(yù)測這兩種情景哪一種會發(fā)生,但國際社會必須立即采取行動,以減輕潛在的風(fēng)險。在解決方案而言,作者提出了國際討論,建立新的全球機構(gòu)和協(xié)議,發(fā)展創(chuàng)新技術(shù)、外交和軍事保障等。
這是技術(shù)的雙刃劍。AI既可以導(dǎo)致我們的厄運,也可以像在《巨人:福賓計劃》(Colossus:The Forbin Project;1970)和《戰(zhàn)爭游戲》(War Games,1983)等電影中那樣,保護(hù)我們免于由于自己的錯誤而毀滅。那么,最好記住這句古老的格言:抱最好的希望,做最壞的打算。
-
人工智能
+關(guān)注
關(guān)注
1791文章
46698瀏覽量
237189 -
特朗普
+關(guān)注
關(guān)注
1文章
288瀏覽量
19793
原文標(biāo)題:特朗普欲將AI用于軍事關(guān)鍵任務(wù),蘭德公司警告2040年前或?qū)е潞藨?zhàn)爭
文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
評論