今年3月中旬,聊天機器人程序ChatGPT推出了最新版本GPT-4,可支持多元的輸入輸出形式,使其具備了更強的專業(yè)學習能力。作為一種基于人工智能(以下簡稱AI)技術(shù)的聊天程序,ChatGPT一經(jīng)推出,便引起社會各界廣泛關(guān)注。甚至有人驚呼,AI將取代人類主宰戰(zhàn)場。ChatGPT究竟會給軍事領(lǐng)域帶來哪些變革?AI是否會超越人類?帶著這些問題,本文從ChatGPT入手,為讀者梳理出一條AI大致的軍事應(yīng)用脈絡(luò)。
ChatGPT的潛在軍事價值
ChatGPT受到關(guān)注的重要原因是引入了新技術(shù)RLHF。所謂RLHF,就是通過人類的反饋來優(yōu)化模型算法,使AI模型的輸出結(jié)果和人類的常識、認知、價值觀趨于一致。簡單來說,就是跟過去的AI模型相比,ChatGPT“更像人類”了。這種“像”主要體現(xiàn)在自然語言處理方面,即語義分析和文本生成。語義分析方面,用戶的任何問題基本都能夠得到有效回應(yīng),不像過去很多時候“驢唇不對馬嘴”;文本處理方面,任何問題的答案都看起來邏輯通順、意思明確、文筆流暢。應(yīng)該說,這堪稱自然語言處理領(lǐng)域的重大突破。
這一技術(shù)顯然可以應(yīng)用于軍事領(lǐng)域。平時,基于ChatGPT技術(shù)的情報整編系統(tǒng)可針對互聯(lián)網(wǎng)上的海量信息,作為虛擬助手幫助分析人員開展數(shù)據(jù)分析,以提高情報分析效能,挖掘潛在的高價值情報。戰(zhàn)時,基于ChatGPT技術(shù)的情報整編系統(tǒng)可將大量戰(zhàn)場情報自動整合為戰(zhàn)場態(tài)勢綜合報告,以減輕情報人員工作負擔,提高作戰(zhàn)人員在快節(jié)奏戰(zhàn)場中的情報分析和方案籌劃能力。
ChatGPT還可用于實施認知對抗。信息化智能化時代,各國數(shù)字化程度普遍較高,這意味著民眾之間的信息交流、觀點傳播、情緒感染的速度更快,也就意味著開展認知攻防的空間更大。ChatGPT強大的自然語言處理能力,可以用來快速分析輿情,提取有價值信息,或制造虛假言論,干擾民眾情緒;還可通過運用微妙而復(fù)雜的認知攻防戰(zhàn)術(shù),誘導、欺騙乃至操縱目標國民眾認知,達到破壞其政府形象、改變其民眾立場,乃至分化社會、顛覆政權(quán)的目的,實現(xiàn)“不戰(zhàn)而屈人之兵”。
據(jù)悉,ChatGPT使用的自然語言處理技術(shù),正是美軍聯(lián)合全域指揮控制概念中重點研發(fā)的技術(shù)。2020年7月1日,美國蘭德公司空軍項目組發(fā)布《現(xiàn)代戰(zhàn)爭中的聯(lián)合全域指揮控制——識別和開發(fā)AI應(yīng)用的分析框架》報告。該報告認為,AI技術(shù)可分為6類,自然語言處理類技術(shù)作為其中之一,在“聯(lián)合全域指揮控制”中有明確的應(yīng)用——可用于從語音和文本中提取情報,并將相關(guān)信息發(fā)送給分隊指揮官乃至單兵,以提醒他們潛在的沖突或機會。
“數(shù)據(jù)是深度愚蠢的”
ChatGPT火爆的關(guān)鍵原因之一是“更像人類”,然而,“更像人類”不等于“趨近人類智能”。ChatGPT僅僅代表AI的新高度,但它還是AI,仍存在著天然缺陷。
目前,主流AI模擬的都是大腦的“模式識別”功能,即在“感知”到外部信號刺激時,能迅速分辨出其性質(zhì)特點。最初,科學家打算通過“制定規(guī)則”的方式來實現(xiàn)這一功能,但很快發(fā)現(xiàn)行不通。比如,很難用規(guī)則來定義一個人。
這是因為,人的相貌、身材、行為等特點無法用明確而統(tǒng)一的規(guī)則來描述,更不可能轉(zhuǎn)換為計算機語言?,F(xiàn)實中,我們看到一個人就能迅速識別出來,并沒有利用任何規(guī)則,而是通過大腦的“模式識別”功能來瞬間完成的。
這一識別過程為科學家提供了啟示:第一,大腦是一個強大的模式識別器,其識別功能可以通過訓練得到提高;第二,大腦的識別能力不是按照各種邏輯和規(guī)則進行的,而是一種“自動化”的行為;第三,大腦由數(shù)百億個神經(jīng)元組成,大腦計算不是基于明確規(guī)則的計算,而是基于神經(jīng)元的計算。
這正是目前主流AI的底層邏輯——對大腦運行機制的模擬。基于這一邏輯,科學家開發(fā)了各類基于神經(jīng)網(wǎng)絡(luò)算法的神經(jīng)網(wǎng)絡(luò)模型,并取得了良好效果。其基本原理是:這些模型都由輸入層、隱藏層和輸出層三部分組成;從輸入層輸入圖像等信息,經(jīng)過隱藏層的自動化處理,再從輸出層輸出結(jié)果;模型內(nèi)部包含大量“神經(jīng)元”,每個“神經(jīng)元”都有單獨的參數(shù);如果輸出結(jié)果與輸入信息存在誤差,模型則反過來自動修改各個“神經(jīng)元”的參數(shù);這樣輸入一次,跟正確答案對比一次,把各個參數(shù)修改一次,就相當于完成了一次訓練。隨著訓練次數(shù)越來越多,模型參數(shù)的調(diào)整幅度越來越小,逐漸達到相對穩(wěn)定的數(shù)值。此時,這個神經(jīng)網(wǎng)絡(luò)就算成型了。
這就是目前主流的神經(jīng)網(wǎng)絡(luò)算法,ChatGPT也同樣如此。不同之處在于,一般AI模型只有百萬級訓練數(shù)據(jù)和參數(shù),而ChatGPT擁有3000億單詞的語料數(shù)據(jù)和1750億個參數(shù)。前者是“喂給”程序的訓練數(shù)據(jù),后者則基于訓練數(shù)據(jù)提升ChatGPT這個模型對世界的理解。這就是ChatGPT看起來“更聰明”的主要原因。但ChatGPT只是“大力出奇跡”,其原理與過去的AI模型并沒有本質(zhì)區(qū)別。
了解了AI的基本原理,我們會發(fā)現(xiàn)AI存在兩個天然缺陷。第一,AI本身并不理解“它自己在做什么”。AI模型就是一堆神經(jīng)網(wǎng)絡(luò)的參數(shù),這些參數(shù)沒有任何具體意義。AI只負責輸出結(jié)果,并不能解釋輸入與輸出之間的邏輯關(guān)系。第二,AI的“行為”是由訓練數(shù)據(jù)決定的。訓練AI的數(shù)據(jù)量越大,AI的能力就越強。但數(shù)據(jù)再多,也只能代表“經(jīng)驗豐富”,一旦遇到意外情況,就會發(fā)生功能紊亂??梢哉f,AI就是用大量數(shù)據(jù)“喂”出來的,它的表現(xiàn)完全取決于數(shù)據(jù)。
因此,跟人類智能相比,AI既沒有真正的理解能力,又過于依賴訓練數(shù)據(jù),以至于計算機科學家和哲學家朱迪亞·珀爾有一句名言:“數(shù)據(jù)是深度愚蠢的”。
AI原理帶來的戰(zhàn)爭啟示
盡管AI存在天然缺陷,但并不妨礙它成為優(yōu)秀的“參謀”和助手。截至目前,AI在軍事領(lǐng)域的應(yīng)用范圍正在不斷擴大,越來越多的AI作戰(zhàn)應(yīng)用正在或已經(jīng)成為現(xiàn)實。
如偵察感知領(lǐng)域,一些發(fā)達國家軍隊的超視距雷達,正在使用AI對各種類型的空中目標進行快速標記和個體識別,目前已經(jīng)實現(xiàn)了對無人機等小型目標的自動探測與識別。無人作戰(zhàn)領(lǐng)域,美國國防部高級研究計劃局正在實施一系列計劃,致力于研究無人機、自主水面無人艇和水下潛航器以及陸基移動無人平臺的組群使用,以實現(xiàn)相應(yīng)的作戰(zhàn)目的。此外,AI技術(shù)還滲透到指揮控制、訓練模擬、后勤保障等領(lǐng)域,并逐漸發(fā)揮出日益重要的作用。
深入思考AI的特點原理和發(fā)展路徑,會發(fā)現(xiàn)其中蘊含著一些關(guān)于戰(zhàn)爭的啟示:
第一,技術(shù)深度決定戰(zhàn)術(shù)高度。毫無疑問,AI時代戰(zhàn)術(shù)的“技術(shù)含量”將越來越高,而“戰(zhàn)術(shù)高度”很大程度上將取決于對AI技術(shù)的認識深度。2019年,比利時魯汶大學的研究團隊發(fā)明了一種可以騙過AI識別的彩色圖形——只要把一張A4大小的特殊圖形打印出來貼在身上,AI就不會把實驗者當作“人”。循著這個思路會發(fā)現(xiàn),只要找到AI的數(shù)據(jù)識別漏洞,就能夠利用數(shù)據(jù)的“愚蠢”,騙過對方的偵察感知功能,進而發(fā)展出相應(yīng)的對抗戰(zhàn)術(shù)。但能否通過技術(shù)手段發(fā)現(xiàn)AI漏洞,是此類戰(zhàn)術(shù)奏效與否的關(guān)鍵和前提。換句話說,對AI技術(shù)的研究深度將在很大程度上決定戰(zhàn)術(shù)能夠發(fā)揮的高度。
第二,打破常規(guī)是對抗AI的關(guān)鍵。目前AI的所有能力都在人類的認知邊界內(nèi)。如ChatGPT看似無所不知,但它能夠提供的所有答案都是在人類已知的信息庫中檢索整合得出的。即使跟過去“不一樣”,ChatGPT也只是通過內(nèi)容整合“重組已知”,而非在觀點和思想層面“發(fā)現(xiàn)未知”?;蛘哒f,AI的最大優(yōu)勢是“熟悉套路”和“優(yōu)選方案”,劣勢則是難以“打破常規(guī)”,更不能“無中生有”。這意味著,AI并不能從已知推導出未知,創(chuàng)新將是人類的最大優(yōu)勢。這進一步意味著,人類指揮員通過深度思考、邏輯推理進而打破常規(guī)、創(chuàng)新戰(zhàn)法的能力無可取代,也必將是未來戰(zhàn)場上應(yīng)對“AI指揮員”的制勝利器。
第三,主宰戰(zhàn)場的依然是人類而非AI。基于目前的計算機技術(shù),AI發(fā)展存在天花板。其理論依據(jù)是“哥德爾不完備定理”。這一定理簡單來說,就是“可數(shù)系統(tǒng)都是不完備的,其中某些問題永遠無法在系統(tǒng)本身的層面得到解決”。根據(jù)這一原理,基于當前計算機技術(shù)的AI,可能永遠無法超越人類。因為計算機系統(tǒng)本質(zhì)是可數(shù)的,而人的意識是不可數(shù)的。例如,計算機所有的輸入和輸出,都必須用有限的數(shù)字來描述。比如圓周率。計算機里沒有真正的圓周率,小數(shù)點后只能輸入一個有限位的近似小數(shù),到一定長度必須停下來。只要停下來,參與運算的這個圓周率就不是真正的π。而真實世界與計算機模擬的數(shù)字世界是不同的。真實世界是不可數(shù)的,圓周率π、自然常數(shù)e都可以無窮無盡地計算下去。AI運行于數(shù)字世界,人類則生活在實數(shù)宇宙。用基于目前計算機技術(shù)的AI來模擬人類智能,就像用語言系統(tǒng)來描述人類感覺——語言是可數(shù)的,而感覺是不可數(shù)的,所以有些感受“只可意會,不可言傳”。由此可推導出,在真正的技術(shù)“奇點”到來之前,AI只能不斷逼近人類智能,但永遠無法超越。人類仍將是戰(zhàn)場的最高主宰。
審核編輯 :李倩
-
AI
+關(guān)注
關(guān)注
87文章
29822瀏覽量
268111 -
人工智能
+關(guān)注
關(guān)注
1789文章
46669瀏覽量
237106 -
ChatGPT
+關(guān)注
關(guān)注
29文章
1547瀏覽量
7363
原文標題:從ChatGPT看人工智能的軍事應(yīng)用
文章出處:【微信號:AI智勝未來,微信公眾號:AI智勝未來】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
評論