9月14日,沙特國(guó)家石油公司,即阿美石油公司的布蓋格煉油廠及胡賴斯油田兩處石油設(shè)施遭到無(wú)人機(jī)和導(dǎo)彈襲擊,導(dǎo)致沙特每天大約570萬(wàn)桶的原油產(chǎn)量暫停供應(yīng),這占到了沙特產(chǎn)能的50%,也相當(dāng)于全球5%的石油日消耗量。無(wú)人機(jī)襲擊的一個(gè)直接后果,是國(guó)際油價(jià)應(yīng)聲而漲,16日一度飆升近20%。
9月18日,沙特國(guó)防部公布石油設(shè)施受攻擊的詳情。在此次襲擊中,攻擊方使用了18架無(wú)人機(jī)和7枚導(dǎo)彈。
此前,中東地區(qū)的無(wú)人機(jī)大戰(zhàn)已經(jīng)在各派之間頻頻展開(kāi)。無(wú)人機(jī)(UAV)是利用無(wú)線電遙控設(shè)備和自備的程序控制裝置操縱的不載人飛機(jī),或者由車(chē)載計(jì)算機(jī)完全或間歇自主地操作的飛行器和武器,因此它是AI產(chǎn)品。也許,無(wú)人機(jī)的加入戰(zhàn)爭(zhēng)和進(jìn)一步改進(jìn),將與核武器的攻擊力旗鼓相當(dāng),甚至更厲害。
無(wú)人機(jī)加入戰(zhàn)爭(zhēng)意味著,AI深度加入戰(zhàn)爭(zhēng)的時(shí)代已經(jīng)來(lái)臨,且將導(dǎo)致重大的傷害和全面的戰(zhàn)爭(zhēng)升級(jí),AI不介入軍事或戰(zhàn)爭(zhēng)的承諾已淪為笑話,潘多拉的魔盒已經(jīng)被打開(kāi)。
無(wú)人機(jī)加入戰(zhàn)爭(zhēng)是對(duì)人類已經(jīng)意識(shí)到并愿意遵循的倫理的違背。人類在20世紀(jì)的核武器研發(fā)與應(yīng)用曾一度是無(wú)意識(shí)的。提出了曼哈頓計(jì)劃的愛(ài)因斯坦后來(lái)曾說(shuō),如果知道原子彈能造成如此大的傷害,是決不會(huì)寫(xiě)信給美國(guó)總統(tǒng)羅斯福建議研發(fā)原子彈的。
當(dāng)今,全球最大的一些科技公司都提出了關(guān)于AI的倫理原則,其共同點(diǎn)就是不用于軍事和戰(zhàn)爭(zhēng)。2017年,116名全球人工智能和機(jī)器人領(lǐng)域的專家發(fā)表聯(lián)名公開(kāi)信,呼吁聯(lián)合國(guó)采取行動(dòng)禁止“自主殺人機(jī)器”(恐怖武器或智能武器)。此后,美國(guó)太空探索技術(shù)公司(SpaceX)CEO馬斯克與全球2400名機(jī)器人研發(fā)人員在斯德哥爾摩宣誓稱,“絕不參與致命性自主武器系統(tǒng)的開(kāi)發(fā)、研制工作?!蔽④泦T工也提出,反對(duì)參與美軍項(xiàng)目,因?yàn)檫@不符合公司AI倫理原則。
2018年4月,3000多名谷歌員工向谷歌首席執(zhí)行官桑德?tīng)枴てげ橐谅?lián)名上書(shū),反對(duì)該公司參與五角大樓的軍用人工智能Project Maven項(xiàng)目。這個(gè)項(xiàng)目是利用機(jī)器人深度學(xué)習(xí)和人工智能分析、應(yīng)用計(jì)算機(jī)視覺(jué)技術(shù),幫助美國(guó)國(guó)防部從圖像和視頻中提取識(shí)別重點(diǎn)對(duì)象目標(biāo)。由于員工的反對(duì),谷歌被迫做出決定,在Project Maven合同2019年到期后,不再與五角大樓續(xù)簽。
然而,僅僅一些人和一些公司遵守“AI不加入軍事不用于戰(zhàn)爭(zhēng)不殺人”的倫理準(zhǔn)則是不夠的,現(xiàn)在無(wú)機(jī)人機(jī)頻頻參與戰(zhàn)爭(zhēng),襲擊人類住所與重大經(jīng)濟(jì)目標(biāo),已經(jīng)說(shuō)明當(dāng)今AI的倫理是非常脆弱的。2019年4月7日,谷歌新成立的AI倫理委員會(huì)只存活了不到10天即宣告解散,原因之一是,無(wú)人機(jī)公司首席執(zhí)行官吉布斯(Dyan Gibbens)加入倫理委員會(huì)后,重組了自己公司的舊部門(mén),試圖將AI用于軍事領(lǐng)域。這一行為遭到了谷歌員工的反對(duì),這說(shuō)明,由公司發(fā)起的倫理委員會(huì)根本無(wú)法阻止這一勢(shì)頭。
軍事人員與一些科研人員支持AI武器的理由是,AI介入戰(zhàn)爭(zhēng)是為了避免大規(guī)模傷及無(wú)辜,如像核武器不分青紅皂白地殺死平民和常規(guī)武器地毯式轟炸濫殺無(wú)辜。所以,如果真是為了和平,就用精確制導(dǎo)武器消滅敵人來(lái)制止戰(zhàn)爭(zhēng)。因此,AI武器的出現(xiàn)和加入戰(zhàn)爭(zhēng),是戰(zhàn)爭(zhēng)的第三次革命。
然而,實(shí)際上,無(wú)人機(jī)加入戰(zhàn)爭(zhēng)只會(huì)更肆無(wú)忌憚地襲擊軍事目標(biāo)以外的民用和經(jīng)濟(jì)目標(biāo),現(xiàn)在,沙特兩處石油設(shè)施遭無(wú)人機(jī)攻擊已是最好的證明。盡管這次襲擊未造成人員傷亡,但對(duì)沙特經(jīng)濟(jì)和全球石油供應(yīng)的影響是持續(xù)而深遠(yuǎn)的,這也向世人公開(kāi)展示,要想取得軍事勝利與實(shí)現(xiàn)政治目標(biāo),使用更新更好的AI武器是首選。
無(wú)人機(jī)會(huì)加劇未來(lái)戰(zhàn)爭(zhēng)的殘酷程度。2017年11月12日,一部由美國(guó)加州大學(xué)伯克利分校的教授斯圖爾特·拉塞爾與生命未來(lái)研究所合作拍攝的一部虛構(gòu)影片開(kāi)始在網(wǎng)絡(luò)上傳播。影片里,一種手掌大小的無(wú)人機(jī)殺人武器(Slaughterbots)配備了面部識(shí)別技術(shù)并攜帶炸藥,先由一架或幾架無(wú)人機(jī)炸開(kāi)圍墻,后面的無(wú)人機(jī)進(jìn)入大學(xué)和國(guó)會(huì),通過(guò)面部識(shí)別,對(duì)準(zhǔn)鎖定的目標(biāo)大學(xué)生與國(guó)會(huì)議員進(jìn)行爆頭屠殺。
雖然這只是虛擬場(chǎng)景,但在不遠(yuǎn)的未來(lái),小型無(wú)人機(jī)都可以配備人臉識(shí)別系統(tǒng)及聚能炸藥,在程序輸入后,可根據(jù)命令單獨(dú)作戰(zhàn),或集群作戰(zhàn),尋找和殺滅已知的個(gè)體或類似具有統(tǒng)一特征的人群,讓每個(gè)人無(wú)法逃脫大屠殺。這樣的AI武器比起原子彈來(lái)甚至更為厲害——至少原子彈爆炸時(shí)人們還有地下掩體可以保護(hù),但在未來(lái),任何人都無(wú)法逃脫AI武器的精準(zhǔn)追殺。
依靠人臉識(shí)別技術(shù)追殺人的無(wú)人機(jī),也還屬于初級(jí)的人工智能武器。根據(jù)對(duì)人工智能的分類,目前的AI武器可以分為三類。一類是完全由人類決定并由人遠(yuǎn)程操作的無(wú)人機(jī),現(xiàn)在美國(guó)的MQ-1“捕食者”偵察機(jī)就是代表。
第二類是機(jī)器人可以自己做一定的判斷,但在執(zhí)行任務(wù)期間,人類可以中斷或取消無(wú)人機(jī)的任務(wù),如以色列的“哈比”自殺式無(wú)人機(jī)就屬于這一類。加州大學(xué)的拉塞爾教授所演示的無(wú)人機(jī)炸彈也屬于這一類。上述兩類武器都已經(jīng)用于實(shí)戰(zhàn)。
第三類,是人類完全不參與決策過(guò)程的自主型殺手無(wú)人機(jī)或機(jī)器人。這類機(jī)器本質(zhì)上還是要由人來(lái)決定,即由人編程并在一定程度上讓無(wú)人機(jī)自己決策,但是,這類無(wú)人機(jī)的最大隱患在于,可能出現(xiàn)程序錯(cuò)誤而導(dǎo)致誤傷,自主判斷做出人類意想不到或不會(huì)讓其進(jìn)行的行動(dòng),如擴(kuò)大打擊范圍和強(qiáng)度。另外,如果這類武器擴(kuò)散到恐怖分子手中,會(huì)造成更大災(zāi)難。
AI武器的這三種分類也來(lái)源于人工智能的三種分類:弱人工智能,只能完成某一項(xiàng)特定任務(wù)或者解決某一特定問(wèn)題的人工智能;強(qiáng)人工智能或通用人工智能,可以像人一樣勝任任何智力性任務(wù)的智能機(jī)器;超人工智能或超級(jí)智能,可以像人類實(shí)現(xiàn)智能上的生物進(jìn)化,對(duì)自身進(jìn)行重編程和改進(jìn),即“遞歸自我改進(jìn)功能”。
目前,在技術(shù)上,用超人工智能來(lái)打造殺人武器尚難以實(shí)現(xiàn),但現(xiàn)有的兩類人工智能武器已經(jīng)顯示了比常規(guī)武器更大的殺傷力,而且,由于可能出現(xiàn)程序錯(cuò)誤,誰(shuí)也不能保證無(wú)人機(jī)和機(jī)器人武器不會(huì)濫殺無(wú)辜?,F(xiàn)在已經(jīng)到了正視AI武器的危害并制定禁止AI武器規(guī)定的時(shí)候了!
迄今為止,聯(lián)合國(guó)已經(jīng)有《禁止核武器條約》《不擴(kuò)散核武器條約》《關(guān)于禁止發(fā)展、生產(chǎn)、儲(chǔ)存和使用化學(xué)武器及銷(xiāo)毀此種武器的公約》《禁止細(xì)菌(生物)及毒素武器的發(fā)展、生產(chǎn)及儲(chǔ)存以及銷(xiāo)毀這類武器的公約》等條約,唯獨(dú)沒(méi)有禁止AI武器的國(guó)際法。
美軍曾明確表示不會(huì)禁止使用無(wú)人自動(dòng)化武器,包括無(wú)人機(jī)、無(wú)人船艦等。他們提出的一個(gè)相當(dāng)有力的理由是,當(dāng)人們尚未完全了解AI武器時(shí)就要求禁止使用它,此舉無(wú)異于杞人憂天。實(shí)際上,美軍非但不會(huì)禁止,還會(huì)大力推廣AI武器的使用。
在這樣的背景下,即便國(guó)際社會(huì)愿意探討控制與禁止AI武器,可能也不會(huì)獲得廣泛支持和達(dá)成共識(shí)。人們還擔(dān)心,制定了禁止AI武器的國(guó)際公約,可能也無(wú)法阻止有人研發(fā)AI武器和使用AI武器。AI武器對(duì)未來(lái)人類戰(zhàn)爭(zhēng)的影響目前還難以估量,但必將是重大而深遠(yuǎn)的。
來(lái)源:中國(guó)新聞周刊
評(píng)論
查看更多