在科幻電影中,類似于賈維斯(J.A.R.V.I.S.)一般的 AI 系統(tǒng),幾乎無所不能,是幫助人類解決各種各樣難題的終極助手。 它們的背后,是一種人們追求最高級 AI 的追求,而這一概念,被稱為通用人工智能(Artificial General Intelligence,AGI)。 AGI的概念可以追溯到20世紀(jì)中期,當(dāng)時許多計算機科學(xué)家和 AI 研究人員開始思考如何構(gòu)建具有人類智能的計算機程序,與狹義 AI(Narrow AI)系統(tǒng)專注于解決特定任務(wù)不同,AGI被賦予了更廣泛的認知和推理能力,能夠在多個領(lǐng)域進行學(xué)習(xí)、適應(yīng)和執(zhí)行任務(wù)。
然而,在很長一段時間里,AI 的相關(guān)研究主要集中在解決特定問題和任務(wù)上,而AGI的實現(xiàn)一直被認為是一個更為復(fù)雜和遙遠的目標(biāo)。
近日,花旗銀行數(shù)據(jù)科學(xué)副總裁 Valentino Zocca 博士在一篇題為《我們離AGI還有多遠?》(How far are we from AGI?)的文章中,就 AGI 和其他有關(guān)的重要議題展開了深度分析。核心觀點如下:與目前的狹義人工智能相比,AGI 需要能夠在多個認知領(lǐng)域進行推理和學(xué)習(xí)。然而,實現(xiàn) AGI 仍然存在許多挑戰(zhàn),如構(gòu)建世界模型、進行因果推理等。 大型語言模型(如 GPT-4)在解決特定任務(wù)和提取因果關(guān)系方面表現(xiàn)出色,但缺乏抽象的因果推理能力。它們傾向于從數(shù)據(jù)中提取已知的因果模式,而無法生成新的因果見解。 一些研究者認為,現(xiàn)有的大型語言模型(如 GPT-4)可能是邁向 AGI 的一步,但仍然存在許多未解決的問題,如創(chuàng)建世界模型、實現(xiàn)自我探究和進行因果演繹等。 大型語言模型善于從數(shù)據(jù)中識別和提取因果關(guān)系,但缺乏自己主動推理新的因果場景的能力。它們具備通過觀察進行因果歸納的能力,但不具備因果演繹的能力。 AI 可能無法真正“學(xué)習(xí)”,而只能提煉信息或經(jīng)驗。AI 不是形成一個全面的世界模型,而是創(chuàng)建了一個概要。 將分?jǐn)?shù)當(dāng)作能力的標(biāo)志,AI 就好像只看到了世界的一個粗略概述,而沒有真正理解整個世界的本質(zhì)。 我們不應(yīng)將智能僅僅視為一種抽象的能力,即找到解決一般問題的方法,而應(yīng)將其看作是一種具體的能力,即將從先前經(jīng)驗中學(xué)習(xí)到的解決方案應(yīng)用于我們所處環(huán)境中可能出現(xiàn)的不同情況。 只有當(dāng)我們能夠創(chuàng)造出一個可以懷疑自身現(xiàn)實的系統(tǒng),進行自我探索,至少能夠應(yīng)用因果演繹來建立一個合理的世界模型時,我們才能真正實現(xiàn) AGI。
內(nèi)容如下:
大約 20 萬年前,我們?nèi)祟愰_始在地球上行走,同時也在思想和知識的領(lǐng)域中探索。人類歷史上的一系列發(fā)現(xiàn)和發(fā)明塑造了這段歷史。其中一部分不僅影響了我們的歷史走向,還潛移默化地影響了我們的生物學(xué)。例如,火的發(fā)現(xiàn)賦予我們祖先烹飪食物的能力,從而將熱量轉(zhuǎn)移到大腦的進化上,而非僅用于消化道,這推動了人類智力的進步。
從車輪的發(fā)明到蒸汽機的誕生,人類迎來了工業(yè)革命。在這段變革的歷程中,電力大大催生了我們熟知的技術(shù)進步。而印刷術(shù)則加速了新思想和新文化的廣泛傳播,進一步推動了創(chuàng)新的步伐。
然而,人類的進步并不僅僅源于新的物質(zhì)發(fā)現(xiàn),它還源于新的思想。所謂西方世界的歷史,是從羅馬帝國滅亡到中世紀(jì),在文藝復(fù)興和啟蒙運動期間經(jīng)歷了一次重生,它強調(diào)人類思想的中心地位,而不是所謂萬能的神靈。然而,隨著人類知識的進步,人類這開始認識到自身的渺小。在蘇格拉底之后的兩千多年里,人類開始“知道自己一無所知”,我們的地球不再被視為宇宙的中心。宇宙本身在擴張,而我們只是其中的一粒微塵。
改變對現(xiàn)實的看法
然而,就重塑我們對世界的認識而言,20 世紀(jì)可能是爭論最多的一百年。1931 年,哥德爾(Kurt G?del)發(fā)表了不完備定理。 僅僅四年后,愛因斯坦、波多爾斯基(Boris Podolsky)和羅森(Nathan Rosen)以“完備性”為主題,在題為“Can Quantum-Mechanical Description of Physical Reality Be Considered Complete?”的論文中提出了“EPR吊詭”。隨后,波爾(Niels Bohr)對這篇論文進行了反駁,他證明了量子物理學(xué)的實際有效性。
哥德爾不完備定理表明,即使是數(shù)學(xué)也無法最終證明一切,我們總會面臨一些無法證明的事實存在的情況。而量子理論則認為,我們的世界缺乏確定性,我們無法預(yù)測某些事件,如電子的速度和位置,盡管愛因斯坦曾說“上帝不會擲骰子”這一著名的立場。從根本上講,我們的局限性已經(jīng)超越了僅僅預(yù)測或理解物理領(lǐng)域內(nèi)事件的范圍。即使我們努力構(gòu)建一個完全由我們所設(shè)想的規(guī)則支配的數(shù)學(xué)宇宙,這個抽象的宇宙仍然會存在不可否認的事實。
然而,除了數(shù)學(xué)陳述之外,我們的世界還充滿了描述現(xiàn)實的哲學(xué)陳述,我們發(fā)現(xiàn)自己無法描述、完全表達、理解甚至只是定義這些現(xiàn)實。
類似于20世紀(jì)初“真理”概念的不確定性,其他諸如“藝術(shù)”“美”和“生命”等概念的定義同樣缺乏根本性的共識。然而,這些并非孤立的案例,“智慧”和“意識”等其他概念同樣處于這一困境之中。
智力的定義
為了彌補這一差距,Legg 和 Hutter 于 2017 年在“Universal Intelligence: A Definition of Machine Intelligence”中提出了智能(intelligence)的定義:認為“智能衡量的是一個代理在各種環(huán)境中實現(xiàn)目標(biāo)的能力”。同樣,在“Problem-Solving and Intelligence”中,Hambrick、Burgoyne 和 Altmann 認為,解決問題的能力不僅是智能的一個方面或特征,而且是智能的本質(zhì)。這兩種說法在字面上有相似之處,因為實現(xiàn)目標(biāo)可以與解決問題聯(lián)系起來。
Gottfredson 在“An Editorial with 52 Signatories”中總結(jié)了幾位研究者的觀點:智能是一種非常普遍的心理能力,包括推理能力、計劃能力、解決問題的能力、抽象思維能力、理解復(fù)雜思想的能力、快速學(xué)習(xí)的能力以及從經(jīng)驗中學(xué)習(xí)的能力。它不僅僅是書本知識、狹隘的學(xué)術(shù)技能或應(yīng)試技巧。相反,它反映了一種更廣泛、更深層次的理解周圍環(huán)境的能力。一種“抓住”“理解”事物,或者“構(gòu)思”應(yīng)對方法的能力。
這一定義引入了兩個關(guān)鍵維度,即從經(jīng)驗中學(xué)習(xí)和理解周圍環(huán)境的能力,從而使智能的概念超越了單純的“解決問題的技能”。換句話說,我們不應(yīng)將智能僅僅視為一種抽象的能力,即找到解決一般問題的方法,而應(yīng)將其看作是一種具體的能力,即將從先前經(jīng)驗中學(xué)習(xí)到的解決方案應(yīng)用于我們所處環(huán)境中可能出現(xiàn)的不同情況。
這突出了智能與學(xué)習(xí)之間的內(nèi)在聯(lián)系。在“How we learn”中,Stanislas Dehaene將學(xué)習(xí)定義為“學(xué)習(xí)就是形成一個世界模型”,這意味著智能也需要理解我們周圍環(huán)境并建立一個內(nèi)部模型來描述它們的能力。因此,智能同樣需要具備創(chuàng)建世界模型的能力,即便這種能力可能并不全面。
當(dāng)前的機器有多智能?
在討論通用 AGI 與狹義 AI 時,我們經(jīng)常會強調(diào)它們之間的區(qū)別。狹義 AI(或稱弱 AI)非常普遍,也很成功,在特定任務(wù)上的表現(xiàn)往往能超越人類。一個很好的例子是,2016 年,AlphaGo 以 4 比 1 的比分擊敗了當(dāng)時的圍棋世界冠軍李世石。然而,即便如此,2023 年的一個事件也凸顯了狹義 AI 的某些局限性。在圍棋比賽中,業(yè)余棋手 Kellin Perline 利用 AI 沒有發(fā)現(xiàn)的戰(zhàn)術(shù)獲勝??梢姡珹I 缺乏人類識別不常見策略并做出相應(yīng)調(diào)整的能力。
實際上,在最基本的層面上,即使是缺乏經(jīng)驗的數(shù)據(jù)科學(xué)家也能明白,AI 所依賴的每個機器學(xué)習(xí)模型,甚至包括最簡單的模型,都需要在偏差和方差(bias and variance)之間取得平衡。這意味著 AI 需要從數(shù)據(jù)中學(xué)習(xí),以便理解和歸納解決方案,而不是死記硬背。狹義 AI 利用計算機的計算能力和內(nèi)存容量,可以相對輕松地根據(jù)大量觀察到的數(shù)據(jù)生成復(fù)雜的模型。然而,一旦條件稍有變化,這些模型往往就無法通用。
這就好比我們根據(jù)觀測結(jié)果提出了一個只在地球上有效的引力理論,然后卻發(fā)現(xiàn)物體在月球上要輕得多。如果我們在引力理論知識的基礎(chǔ)上使用變量而不是數(shù)字,我們就會明白如何使用正確的數(shù)值快速預(yù)測每個行星或衛(wèi)星上的引力強度。但是,如果我們只使用沒有符號的數(shù)字方程,那么在不重寫這些方程的情況下,我們將無法正確地將這些方程推廣到其他天體。
換句話說,AI 可能無法真正“學(xué)習(xí)”,而只能提煉信息或經(jīng)驗。AI 不是形成一個全面的世界模型,而是創(chuàng)建了一個概要。
我們真的實現(xiàn)了AGI嗎?
人們普遍理解的 AGI 定義是,AI 系統(tǒng)能夠以人類水平或更高水平在多個認知領(lǐng)域進行理解和推理。這與目前專門從事特定任務(wù)的狹義 AI 系統(tǒng)(如 AlphaGo)形成了鮮明對比。AGI 指的是一種 AI 系統(tǒng),具備全面的、人類水平的智能,能夠跨越不同的抽象思維領(lǐng)域。
如前所述,這就要求我們有能力創(chuàng)建一個與經(jīng)驗相一致的世界模型,并允許對預(yù)測進行準(zhǔn)確的假設(shè)。
與大多數(shù) AI 研究人員和權(quán)威人士的觀點一致,要實現(xiàn)真正的 AGI 還需要幾年時間,盡管大家對它何時出現(xiàn)的預(yù)測各不相同。在“AGI Safety Literature Review”一文中,Everitt、Lea、Hutter 提到:“我們問了很多研究人員,他們認為 AGI 可能會在 2040-2061 年之間出現(xiàn),但大家的猜測差異很大,有人覺得可能永遠不會出現(xiàn),也有人覺得未來幾年可能就會出現(xiàn)”。總之,可以肯定的是,AGI 還沒有出現(xiàn)在我們身邊。
微軟在最近發(fā)表的“Sparks of Artificial General Intelligence: Early experiments with GPT-4”論文中指出:
“我們認為 GPT-4 是新一批 LLMs的一部分,它們比以前的 AI 模型表現(xiàn)出更多的通用智能。我們討論了這些模型不斷提升的能力和影響。我們證明了,除了精通語言之外,GPT-4 還能解決新穎而困難的任務(wù),這些任務(wù)涉及數(shù)學(xué)、編碼、視覺、醫(yī)學(xué)、法律、心理學(xué)等,而且不需要任何特殊提示。此外,在所有這些任務(wù)中,GPT-4 的表現(xiàn)都非常接近人類水平,而且往往遠遠超過 ChatGPT 等先前的模型。鑒于 GPT-4 的強大能力,我們認為有理由將其視為一個接近(但仍不完整)的通用人工智能(AGI)系統(tǒng)的版本”。
問題是什么?微軟是 OpenAI 的合作伙伴。
《紐約時報》的一篇文章援引卡內(nèi)基梅隆大學(xué)教授 Maarten Sap 的話說:“這是其中一些大公司將研究論文格式用于公關(guān)宣傳的一個例子”。研究人員兼機器人企業(yè)家 Rodney Brooks 在接受 IEEE Spectrum 采訪時強調(diào),在評估 ChatGPT 等系統(tǒng)的能力時,我們經(jīng)常“誤把性能當(dāng)能力”。
換個方式來解釋,將分?jǐn)?shù)當(dāng)作能力的標(biāo)志,AI 就好像只看到了世界的一個粗略概述,而沒有真正理解整個世界的本質(zhì)。
AI 面臨一個重要問題,就是它們的訓(xùn)練數(shù)據(jù)。大多數(shù)模型僅在文本基礎(chǔ)上進行訓(xùn)練,不具備在現(xiàn)實世界中說話、聽覺、嗅覺或生活的能力。正如我之前提出的,這種情況有點像柏拉圖的洞穴寓言。在那個故事里,人們只能看到洞穴墻上的影子,無法直接體驗真實的世界。即使能夠創(chuàng)建一個世界模型,他們的世界也只是一個純文字的世界,句法上正確,但語義上并不全面。這種環(huán)境缺乏直接感知所產(chǎn)生的“常識”,所以顯得乏善可陳。
大語言模型有哪些主要局限性?
ChatGPT 或 GPT-4 等大型語言模型(LLMs)面臨的另一個最有爭議的挑戰(zhàn)是,它們?nèi)菀桩a(chǎn)生幻覺。所謂幻覺,就是這些模型會編造出一些假的引用和事實,有時甚至是毫無意義的內(nèi)容。出現(xiàn)幻覺的原因在于,它們?nèi)狈κ录g原因和結(jié)果的理解。
在“Is ChatGPT a Good Causal Reasoner? A Comprehensive Evaluation”一文中,作者得出結(jié)論:“ChatGPT 存在嚴(yán)重的因果幻覺問題,它傾向于假設(shè)事件之間的因果關(guān)系,而不管這些關(guān)系是否實際存在”。他們進一步指出:“ChatGPT 不是一個好的因果推理者,而是一個好的因果解釋者”,再次強調(diào)了它在解釋時提煉聯(lián)系的能力,但卻無法通過構(gòu)建一個現(xiàn)有的世界模型來推斷這些聯(lián)系,而這些聯(lián)系就自然而然地存在于這個世界模型中。雖然這篇文章的重點是 ChatGPT,但可以擴展到任何 LLMs。
從根本上說,我們可以發(fā)現(xiàn),LLMs 善于從數(shù)據(jù)中識別和提取因果關(guān)系,但缺乏自己主動推理新的因果場景的能力。它們具備通過觀察進行因果歸納的能力,但不具備因果演繹的能力。
這種區(qū)別凸顯了一個局限性,系統(tǒng)可以識別因果模式,但缺乏抽象的因果推理能力。它并不能產(chǎn)生新的因果見解,而只是從數(shù)據(jù)中解釋因果聯(lián)系。
然而,如果智能需要從經(jīng)驗中學(xué)習(xí),而學(xué)習(xí)又轉(zhuǎn)化為創(chuàng)建一個我們可以用來理解周圍環(huán)境的世界模型,那么因果演繹就構(gòu)成了學(xué)習(xí)的一個基本要素,從而也構(gòu)成了智能的一個基本要素,而這正是現(xiàn)有模型所缺少的一個方面。這是我們朝著 AGI 前進的關(guān)鍵步驟之一。
結(jié)論
正如在20世紀(jì)初所展示的那樣,實際情況常常與我們?nèi)粘S^察所形成的直覺不同。就像20世紀(jì)初的物理學(xué)家因為量子力學(xué)與人類直覺相悖而難以理解它一樣,我們現(xiàn)在構(gòu)建的 AI 系統(tǒng)也受限于現(xiàn)實的一小部分,甚至比我們?nèi)祟愃荏w驗到的范圍還要窄。
就像我們最終理解了一個與我們?nèi)粘=?jīng)驗相矛盾的真實世界一樣,只有當(dāng)我們能夠創(chuàng)造出一個可以懷疑自身現(xiàn)實的系統(tǒng),進行自我探索,至少能夠應(yīng)用因果演繹來建立一個合理的世界模型時,我們才能真正實現(xiàn) AGI。
這一展望可能是人類歷史邁向新階段的一個標(biāo)志,我們開始逐漸承認,人類在整個宇宙中的重要性正在減少。
-
語言模型
+關(guān)注
關(guān)注
0文章
501瀏覽量
10236 -
Agi
+關(guān)注
關(guān)注
0文章
76瀏覽量
10183 -
大模型
+關(guān)注
關(guān)注
2文章
2274瀏覽量
2357
原文標(biāo)題:AGI離我們還有多遠?大模型不是最終解,世界模型才是未來
文章出處:【微信號:AI智勝未來,微信公眾號:AI智勝未來】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
評論