OpenAI分裂大戲終于告一段落。在短短數(shù)天內(nèi),創(chuàng)始人Sam Altman被掃地出門,先是談判破裂,高調(diào)宣布加入微軟,又在超700名OpenAI員工聯(lián)名抗議后,重回帥位。
這一切看似塵埃落定,但伴隨著此次OpenAI紛爭,一個潛藏的深層次議題浮出水面:考量AGI的未來軌跡時,有兩種觀念:一方面是“有效加速主義”,主張無條件加速技術(shù)創(chuàng)新,快速推動社會結(jié)構(gòu)的顛覆;另一方面是“超級愛對齊”,強調(diào)在AI發(fā)展過程中必須注入對人類的深層關(guān)懷與愛,以確保AI對人類的安全性。
歸根結(jié)底,這場博弈背后,有一個看似宏大,但關(guān)系到每個人生活的終極問題,AGI到底是工具,還是數(shù)字生命?
什么是通用人工智能?
1)一張圖講清AGI&TSAI
人工智能的概念其實很早就有了,至少在AlphaGo戰(zhàn)勝人類第一圍棋手李世石時,大家就對它有所了解了,但當(dāng)時為什么沒人站出來討論范式轉(zhuǎn)換和人類未來呢?2022年11月30 日,ChatGPT問世,才改變了我們對未來的思考。
假如去年的我來聽我今天所講的內(nèi)容,我一定會認(rèn)為這是天方夜譚,像是科幻小說里的情節(jié)。過去一年所發(fā)生的事情,使得我今天分享的PPT版本可能已經(jīng)迭代了十版以上了。這個領(lǐng)域進展得太快,超出每個人的想象。
那么,為什么我們會把ChatGPT和之前的人工智能作出如此之大的區(qū)分?我給大家做一個簡單的類比,如果在我的左邊是類人猿,在我們的右邊是現(xiàn)在的人類,ChatGPT和以前的人工智能的區(qū)別就是猴子與人的區(qū)別。
在左邊以AlphaGo為代表的人工智能,被稱為TSAI(Task-Specific AI),可能它下圍棋很厲害,可以超越所有人類,但是它無法有其他的功能。但是右邊的人工智能,被稱為AGI(Artificial General Intelligence),它不僅能下圍棋,還能開車,能像人類一樣做很多事情。
用一張圖來講清楚AGI和TSAI的一個區(qū)別。
X軸代表環(huán)境的復(fù)雜度:左邊是一個封閉的環(huán)境,只允許做有限的事情。而另外一端是開放的環(huán)境,是一個廣袤的世界,可以做任何事情。Y軸代表你要去完成某個任務(wù)時所采用的策略:一邊是靜態(tài)的策略,一邊是動態(tài)的策略。
接下來,我們把現(xiàn)在已知的所有人工智能全部放入這四個象限里面。
第三個象限是我們傳統(tǒng)的CV,也稱為計算機視覺,這是過去十幾年里創(chuàng)業(yè)主要集中的領(lǐng)域,比如面孔識別、語音識別、文字識別等。這一象限是封閉環(huán)境里的靜態(tài)策略,比如面孔識別只需要把辨認(rèn)面孔這件事情做好就行,不需要再有其他功能。另外,靜態(tài)策略意味著一旦訓(xùn)練完成,就不會再變,它指向單向的、簡單的任務(wù)。
第二象限是以AlphaGo為代表的人工智能,是以強化學(xué)習(xí)為主要手段的一系列的人工智能的產(chǎn)品,比如說它可以下棋、下德州撲克等。這些產(chǎn)品在軍事領(lǐng)域里得到了廣泛的應(yīng)用,比如說無人機作戰(zhàn)。在這一象限里,人工智能逐漸已經(jīng)達(dá)到或部分超越了人類的能力。
第四象限處在一個開放環(huán)境里,但它的策略為靜態(tài)。比如波士頓Dynamic的機器狗,它能在沙漠里、雪地里、草地上行走,但是策略相對簡單,就是保持平衡,向前移動。
這三個領(lǐng)域就是我們所說的傳統(tǒng)的TSAI領(lǐng)域。
然后來看人類皇冠上的最后一顆明珠,我們?nèi)祟愖詈蟮淖饑?yán)就集中在這一象限,也就是我們稱之為AGI所在的象限。它的展現(xiàn)其實非常簡單,可以跟朋友聊天、帶家人去海邊玩,開車四處游蕩等等,這就是我們每個人每天做的事情,看上去平平無奇,但它有兩個非常了不起的特點。
第一個特點是“任務(wù)的切換”。你和同事開會時所采用的任務(wù)策略和帶家人去旅游所用的策略是完全不同的,所以說策略需要動態(tài)的調(diào)整。
第二個特點是“環(huán)境”。當(dāng)你在星巴克喝咖啡與在足球場踢球時,所處的環(huán)境也是完全不同的。
這就是AGI所觸碰的領(lǐng)域,它是在開放環(huán)境里的動態(tài)策略。我們通常認(rèn)為,這類人工智能會在500年后實現(xiàn)。而以ChatGPT為代表的大語言模型的出現(xiàn),讓我們對人類未來的暢想提早了500年兌現(xiàn)。
2)ChatGPT背后蘊含了巨大能量
假設(shè)你去問ChatGPT,你到底能做什么?它會回答出四件事情:提供信息、回答問題、進行對話、生成一些創(chuàng)造性的內(nèi)容。聽起來似乎很平常,與人類每天所做的事情大致相似,但其實這背后蘊含了巨大的能量。
我給大家舉幾個簡單的例子。
一個媽媽問ChatGPT:“我的五歲寶寶總是提到一只超級向日葵刺猬Larry,我問他,這個生物究竟長什么樣子,他卻說不出來,說你能告訴我這只超級向日葵刺猬Larry長什么樣子嗎?”ChatGPT立馬給出了相應(yīng)的圖像。然后,媽媽又接著說:“現(xiàn)在我要哄小孩睡覺,你能給我編一個關(guān)于超級向日葵刺猬的一個睡前故事嗎?”立即,ChatGPT寫出了一個相關(guān)的故事。
“柳樹Willy非常的傷心,感覺自己不像其他植物那么有用。Larry看到了Willy垂下的枝條,問道,嘿,Willy,你為什么拉長了臉?Willy說,我希望成為一個像你這樣樂于助人的人。Larry笑著說,Willy,你已經(jīng)是了,每當(dāng)有疲憊的旅人經(jīng)過的時候,他們都會在你的樹蔭下休息,風(fēng)一吹,你的樹枝就會翩翩起舞,奏出美妙的樂章。在這片草地上,我們每個人都有特別的使命。Willy笑了,他意識到自己也有自己的用處?!?/p>
你看,這不是一個簡簡單單的哄小朋友睡覺的故事,它的文辭優(yōu)美,而且背后蘊藏了一個非常深的哲理,每位成人也是能夠有感受的。它竟然是ChatGPT所編出來的。
喬布斯在1995年接受訪談時,說了這么一句話,“我希望有一天,我們能夠在計算機中捕捉到亞里士多德的世界觀。在這一天,學(xué)生不僅能夠閱讀亞里士多德寫的文字,并且還能夠向他提出問題并得到答案。
今天,你也可以借助ChatGPT來輕松地完成這一切。把亞里士多德的所有文字上傳給ChatGPT,再告訴它說我希望你以文檔里面的思想、表達(dá)的方式來與我進行對話。你就創(chuàng)造出了一個虛擬的亞里士多德。如果你問它,2023年,這個世界變得更好還是變得更壞了?它會從技術(shù)上、人文方面為你分析。這個時候,你真的就像在和一個智者對話。它可能從根本上在改變我們的思維方法。
此外,OpenAI的首席科學(xué)家伊利亞最近接受《麻省理工科技評論》的采訪時就表示,用戶可以使用AGI做很多不可思議的事情,比如讓自動化醫(yī)療保健比醫(yī)院便宜一千倍。
混沌教學(xué)的時候,我們經(jīng)常說,能有十倍好,就是一個很好的方向?,F(xiàn)在不僅僅是十倍好,是效果好一千倍,價格低一千倍。那行業(yè)迎來的就不再是迭代更新,而是顛覆性的改變。
AGI的實現(xiàn)之路
既然ChatGPT這么厲害,它從何而來?為了回答這個問題,我們必須追溯過去幾十年里人類為探索通用人工智能所做出的一系列努力。我們試著分析人類探索通用人工智能的幾條道路。
1) 巴普洛夫的狗,行為的強化學(xué)習(xí)
巴普洛夫的狗聽見鈴聲就會分泌唾液。怎么做到的?在實驗里,工作人員給狗端上食物之前會搖一下鈴鐺,然后再把食物然后端給狗。一般來說,狗看見食物會天然地分泌唾液,而端上食物之前搖鈴鐺的動作持久重復(fù)之后,狗僅僅聽到鈴鐺響聲就會流下唾液,形成了我們通常所說的條件反射。在學(xué)術(shù)界,這一過程被稱為強化學(xué)習(xí)。強化學(xué)習(xí)的底層邏輯就是獎勵,這一點被用來塑造各種各樣的行為,比如在馬戲團里猛虎能夠穿過火圈。
強化學(xué)習(xí)的奠基人Sutton發(fā)表過一篇文章,標(biāo)題簡單粗暴,Reward is enough。意思是要實現(xiàn)通用人工智能,只要有一點就可以了:強化。
2)人類神經(jīng)系統(tǒng),腦的智能進化
人類的智能行為由大腦產(chǎn)生,因此了解大腦究竟是如何運作的,就能產(chǎn)生相應(yīng)的智能,這背后的邏輯是進化。例如,線蟲只有302個神經(jīng)元,它只能作出非常簡單的行為,每天在水里面游來游去,碰見食物就吃,碰見天敵就躲。果蠅有百萬個神經(jīng)元、斑馬魚有千萬個神經(jīng)元、老鼠有上億個神經(jīng)元……可以說,隨著神經(jīng)元的增加動物的能力越強。
那是否先弄清楚線蟲,再弄清楚果蠅、斑馬魚……逐漸往上推,就能慢慢從低等生物的智能逐漸演化成高等生物的智能?其實我們的文明也是這樣產(chǎn)生的。1903年,第一架飛機飛行家一號,它只能飛200米,離地的高度不超過20米,但今天飛機已經(jīng)能到達(dá)任何地方。
那從這個角度上來講,我們能不能通過研究大腦究竟是怎么工作的,它的結(jié)構(gòu)和功能是什么樣子,來產(chǎn)生AGI?以歐盟為代表的藍(lán)腦計劃,就去解析了大腦的神經(jīng)元,它的突觸,怎么和其他的神經(jīng)元產(chǎn)生連接,怎么來構(gòu)建一個這種復(fù)雜的大腦。試圖通過理解大腦的構(gòu)成、結(jié)構(gòu),來實現(xiàn)它的功能。這是在過去幾十年里腦科學(xué)的努力方向。
3) 實驗室玩具被忽略的一環(huán),思考與認(rèn)知
時至今日,我們?nèi)〉昧撕芏喑晒?,但沒有取得較為有顛覆性的突破。為什么?假設(shè)我們是這只狗,當(dāng)鈴鐺響起的時候,也許腦海里面在進行一個思考,“鈴聲響起來了,食物還會遠(yuǎn)嗎”?模仿了行為,模仿了大腦,但是卻沒有去模仿狗的靈魂。把靈魂換成一個科學(xué)的術(shù)語來講,是什么?就是我們的認(rèn)知和我們的思想。它只針對于模仿人類的行為,卻忽略了人類的思維和認(rèn)知。而這,就是大語言模型解決的真正問題所在。
那什么是我們思維的基礎(chǔ)和載體?語言。我們所有的思想都以語言的形態(tài)呈現(xiàn)。Oliver Holmes曾說:“語言是靈魂的血液,思想在其中運行,并且從中生長出來?!痹谒磥?,語言是一個載體,是我們思想的溫床,讓思想從中不斷地發(fā)展。
維根斯坦說的更加直白,他說:“語言的邊界即世界的邊界?!毙枰⒁獾氖?,維根斯坦口中的“世界”不是指物理世界,而是思想世界。也就是說,但凡語言不能觸達(dá)之處,思想也無法觸達(dá)。
科學(xué)家們開始思考,我們是否可以通過理解人類的語言,從而讓人工智能獲得像人類一樣的思考能力。所以說,大語言模型的本質(zhì)是大的認(rèn)知模型、思想模型,它是通過理解語言、學(xué)習(xí)語言,從而模仿人類的思考方式。
人工神經(jīng)網(wǎng)絡(luò)之父Geoffrey Hinton做出過一個比喻,他說,毛毛蟲提取營養(yǎng)物質(zhì),然后化繭為蝶,而人類已經(jīng)提取了十億思想的金塊,這就是我們的語言。ChatGPT-4正是人類的蝴蝶。
計算機通過吸收人類思想、人類所積攢的幾千年的文字學(xué)習(xí)應(yīng)該怎樣使用語言進行表達(dá)。不是思考怎么說出一句流暢的話,而是思考應(yīng)該怎么像人類一樣思考,AGI就這樣產(chǎn)生了。使我們?nèi)祟惖乃枷?、文字,成為它真正的奠基?/p>
4)語言,即思考的金塊
我們現(xiàn)在面臨著一個很重要的問題,如何提取這個思想的金塊?要回答這個問題,需要先回答一個更底層的問題——思想的金塊是怎么產(chǎn)生的?
從考古學(xué)的角度來看,人類和猴子大約在300萬年前分道揚鑣,從這之后,人類的發(fā)展其實非常緩慢。但是在距今7萬年到10萬年的時候,人類出現(xiàn)了一次飛躍,各種各樣的石器涌現(xiàn)而出,各種各樣的發(fā)明層出不窮,這被稱為人類的第一次認(rèn)知革命。這次認(rèn)知革命使得人類從萬物之中的一員變成了萬物之靈,進而成為這個世界的主宰。
這次認(rèn)知革命究竟發(fā)生了些什么?
通過考古可發(fā)現(xiàn),人類從能人到直立人,再到尼安德特人,所做出的的石器越來越精巧,但是本質(zhì)上卻沒有改變。所以,從能人誕生的210萬年前到尼安德特人所誕生的30萬年前,這整整的一段時間里面,我們可以把它稱為人類進化的垃圾時間。但我們的祖先出現(xiàn)了,也就是“智人”,智人最后戰(zhàn)勝了尼安德特人,形成我們今天的在座的各位。
考古發(fā)現(xiàn),在距今7.7萬年前打造的一個石斧上出現(xiàn)了一些刻痕,同樣,在距今6萬年前的一個鴕鳥蛋的蛋殼上也出現(xiàn)了一些刻痕,這些刻痕正是當(dāng)時人類對世界運作的記錄,反映出他們對世界的理解。直到5000到6000年前,人類開始在黃泥板上刻下痕跡,形成了我們今天稱為的楔形文字,從那時候起,人類把自己的思想灌輸在文字之中。
能人和智人,兩者之間有一個非常大的區(qū)別——智人大腦的體積是能人大腦體積的三倍。從進化史的角度看,這是一個奇跡般的變化,因為沒有任何一個物種能夠在進化尺度上面發(fā)生如此大的變化,只有人類做到了。所以說,過去人類在悄悄地增大自己大腦的體積,當(dāng)它大到一定程度的時候,我們的智能就涌現(xiàn)出來了。
5) 選個好基因來打籃球
我們發(fā)現(xiàn)的這個史實,對AGI產(chǎn)生來說是一個至關(guān)重要的觀點?!斑x個好基因來打籃球”,這就是人工神經(jīng)網(wǎng)絡(luò)背后發(fā)展的一個底層邏輯。也是是Hinton窮奇他一生要實現(xiàn)的一個目標(biāo):讓一個神經(jīng)網(wǎng)絡(luò)能夠大起來,而且可以進行訓(xùn)練。
最早的人工神經(jīng)網(wǎng)絡(luò)出現(xiàn)在1957年,Rosenblatt提出的感知機。只有簡單的兩層線性模型,很多人覺得干不了任何事情,經(jīng)過將近30年的漫長等待,Hinton提出通過回傳算法(BP算法),讓兩層的感知機能夠變成一個多層感知機。它的層數(shù)增加相當(dāng)于我們祖先的大腦變大,只有當(dāng)大腦變大了,才能夠擁有智能。
然后,經(jīng)過20年的時間,Hinton把線性的多層模型拓展為非線性多層模型。非線性的意思是讓參數(shù)盡量復(fù)雜化,用參數(shù)的復(fù)雜化應(yīng)對我們思想的復(fù)雜化。也就是說,只有我們的參數(shù)足夠大、復(fù)雜度足夠高,才能去容納復(fù)雜的思想。
當(dāng)時,Hinton的觀念提出之后并沒有引發(fā)很大的反響,甚至很多人認(rèn)為太瘋狂。但是Hinton十分堅持,用一生的時間推進這個想法。他曾經(jīng)在一次采訪中表示,不放棄的原因在于堅信其他人都錯了。他的底層邏輯在于,大腦就是這樣的網(wǎng)絡(luò),大腦能工作,人工神經(jīng)網(wǎng)絡(luò)沒有理由不工作。
在當(dāng)下,我們進一步發(fā)現(xiàn)人工神經(jīng)網(wǎng)絡(luò)越復(fù)雜,層數(shù)就越多;參數(shù)越多,它就越深。如此一來,會越來越接近人類的大腦。正是在此發(fā)現(xiàn)的推動之下,在2020年5月,終于出現(xiàn)了當(dāng)時被稱為暴力美學(xué)的事件——GPT-3的問世。
G代表生成式,P代表不需要監(jiān)督的學(xué)習(xí),T是基于一個架構(gòu),這就是Google發(fā)明的Transformer。GPT的目標(biāo)在于“大”,主要體現(xiàn)在三個方面。
第一方面是大算力。當(dāng)時為了讓這個模型運作起來,微軟專門設(shè)計了一臺超級AI計算機,這臺計算機的算力是當(dāng)時世界排名第五的超級計算機,目的是用來訓(xùn)練GPT-3。
第二方面是架構(gòu)極其復(fù)雜。GPT總共有1750億個參數(shù),比上一代多了兩個量級,相當(dāng)于多了100倍的參數(shù)量,是一個非常龐大的體系。
第三方面是數(shù)據(jù)量非常大。英語維基百科大約有600萬篇文章,而這只占GPT的訓(xùn)練材料的千分之六??梢韵胂笏臄?shù)據(jù)總量有多龐大。
當(dāng)時訓(xùn)練一次GPT-3的費用高達(dá)500萬美元,但遺憾的是,當(dāng)這個模型推出來的時候,并沒有像今天一樣震驚世界,反而被認(rèn)為是一個笑話。當(dāng)年6月,我在智源人工智能大會上也質(zhì)疑過GPT-3,我說:“當(dāng)我問GPT-3我們的腿有多少只眼睛,它會嚴(yán)肅地告訴我,我們的腿有兩只眼睛。當(dāng)我問它太陽有幾只眼睛,它會說太陽有一只眼睛?!碑?dāng)時的GPT確實比較低能,根本不理解“眼睛”的概念,它所產(chǎn)生的答案是隨機的或是“鸚鵡學(xué)舌”,沒有自己的思考能力。別說社會上,在學(xué)術(shù)圈里面,大家都感覺GPT就是曇花一現(xiàn)。
6) 重要的思想實驗
但是我們錯過了非常重要的一點。我們可以做一個思想實驗:一個現(xiàn)代的嬰兒如果回到3000年前,他會不會比原始社會的嬰兒更加聰明?
答案是否定的。因為3000年不可能使得我們的基因發(fā)生根本性的變化,現(xiàn)在的嬰兒和3000年的嬰兒幾乎一模一樣。
再設(shè)想一下,我們?nèi)绻岩晃怀赡耆怂突氐?000年前,他會不會比當(dāng)時原始部落的人聰明?答案是肯定的。因為一個正常的成年人具備一定的知識,即使他的文化程度不高,也足以碾壓當(dāng)時最聰明的人。
那么,為什么嬰兒跟原始部落的嬰兒一樣的笨,而成年人回去就可以在思想上碾壓一切人類?
道理非常簡單,一個人的思維成長離不開教育。當(dāng)時GPT具有完美的基因,但是它還缺乏教育。從2020年5月份GPT-3推出到2022年11月30號ChatGPT推出,在這兩年的時間里面,OPenAI對GPT-3進行了再教育。其中,主要有三個方式:
第一個方式是引導(dǎo)大語言模型產(chǎn)生更具有對話性和互動性的回應(yīng)。由此還出現(xiàn)了一個新職業(yè),叫做“提示工程師”,他不需要懂任何的編程語言,只需要告訴大語言模型應(yīng)該如何執(zhí)行命令,被稱為“通用人工智能的教師”,它的工作是對通用人工智能進行“授業(yè)”。
光“授業(yè)”還不夠,還需要第二種方式,名叫RLHF(基于人類反饋的強化學(xué)習(xí))。比如當(dāng)你向大語言模型提問時,它可以產(chǎn)生五個回答,但是不確定哪個回是更好。這時候就需要人類給它一個反饋,告訴它其中哪個答案最好、哪個答案一般,哪個答案很差。讓大語言模型逐漸掌握好答案的規(guī)律。
第三種方式為“對齊”(Alignment),讓大語言模型的目標(biāo)行為和決策過程與人類的價值觀、目標(biāo)和意圖一樣。也就是說,我們要讓大語言模型的人生觀、世界觀、價值觀與人類對齊,而不是摧毀我們的文明,把我們引入歧途。比如,如果你讓大語言模型給你一份制造炸彈的手冊,盡管它具有這個知識,但它也不會給你。因為它知道這是不符合社會規(guī)范的行為。
在過去兩年半的時間里,大語言模型有了徹底的改變,從一個弱小的嬰兒變成了一個優(yōu)秀的成年人。它有強大的基因和先進的教育,還有超級強悍的經(jīng)濟支持,這三方面的合力激發(fā)出這一次偉大的奇跡。
第四次工業(yè)革命的出現(xiàn)
1)為了計算與人類未來
ChatGPT出現(xiàn)之后,究竟帶給人類怎樣的改變?它的目的是掙更多的錢嗎?是有更高的商業(yè)價值嗎?
薩姆·奧特曼在接受美國國會的質(zhì)詢時,被問及創(chuàng)造通用人工智能的動機,他表示他從OPenAI拿不到一分錢,也沒有股票,他做這件事情的唯一原因就是“喜歡它”。他的眼神堅定,態(tài)度十分肯定。
2016年8月英偉達(dá)制造出世界上第一個超算DGX,價值為百萬美元以上,當(dāng)時有很多公司都在爭搶這臺超級計算機,但是黃仁勛把第一臺捐給了OpenAI。他在這臺捐贈的機器上寫下了這么一段文字:為了計算和人類的未來,我捐出世界上第一臺DGX-1。
這個簡單的行動促進了一個閃耀的日子在六年后誕生——ChatGPT出現(xiàn)了。那么現(xiàn)在回答一個根本問題:什么是人類和計算的未來?要回答這個問題,就必須談到范式轉(zhuǎn)換。
2)真正意義上的范式轉(zhuǎn)換
1962年,庫恩在《科學(xué)革命的結(jié)構(gòu)》里面提出這一概念,他認(rèn)為,科學(xué)的進步不是通過漸進的知識積累來實現(xiàn)的,而是通過一系列的革命實現(xiàn),其中一種主導(dǎo)的范式被另外一種所替代。因此,我們要用一種全新的思維方法,全新的世界觀,全新的認(rèn)知去顛覆過去的那些觀念和世界觀,這就是范式轉(zhuǎn)換。
如何理解這句話?
舉個例子,阿加莎·克里斯蒂在1919年的時候生下一個小孩,當(dāng)時的她還未出名,一家的年收入是700英鎊,是一個典型的倫敦中產(chǎn)家庭。但是她卻在自傳里說:“我們永遠(yuǎn)想不到有一天會擁有汽車,這是一個奢侈的念頭,只有富人才配有車,像我們這種中產(chǎn)階級是不配有車的?!碑?dāng)時一輛最便宜的汽車大約170英鎊,占據(jù)阿加莎一家年收入的1/4,是一筆非常大的開銷。
出乎意料的是,傭人一年的費用卻比汽車便宜很多倍,36英鎊/年。由于阿加莎剛剛生了一個小孩,她為小孩請了一個全職的護士,一年才40英鎊。而對這些傭人來說,買車更加是一件天方夜譚的事情。這就是一、二、三次工業(yè)革命要做的事情,就是逐漸把商品的價格降低。
所以說,過去這100年多的發(fā)展導(dǎo)致的一個根本性的影響是讓商品價格發(fā)生巨大變化,這就是我們通常所說的摩爾定律。摩爾定律最開始是被用來表達(dá)計算機CPU的性能的提升,后面逐漸用于商品行業(yè)。根據(jù)匯率估算,我們現(xiàn)在1美元能購買的算力是過去幾十年的幾十倍、上百倍,甚至上千倍。比如,80年代我們家購買了一臺黑白電視機,花光了家里好幾年的積蓄,而現(xiàn)在的電視機要便宜太多太多了。
在過去100年間,商品價格急劇變化的同時,服務(wù)的價格也產(chǎn)生了很大的變化,但是它的價格不是下降,而是明顯上升。例如,在1923年的倫敦,雇傭護士的價格為年薪25英鎊到50英鎊,2023年上漲至24000到30000英鎊左右,即使扣除了物價上漲的因素,依然可以發(fā)現(xiàn)今天的人力成本是過去的12倍。
3)萬物摩爾定律
這個時候,Sam Altman在思考一個問題:怎么才能獲得美好的生活?使個人更加富有就能過得更好嗎?他覺得不行,因為當(dāng)你有了更多的錢,就意味著我會有更少的錢,貧富差距會變得越來越大。
于是他提出了一個大膽的想法,叫做物價下跌,讓所有商品的價格、服務(wù)的價格歸零,我們隨之就變得更加的富有了。他說,AGI將創(chuàng)造驚人的財富,一旦有足夠強大的人工智能加入勞動力大軍,會使得驅(qū)動商品和服務(wù)成本的勞動力的價格將逐漸歸零。他將此現(xiàn)象稱為萬物摩爾定律。
這一段話,Sam Altman并沒有公開說,而是把它貼在OpenAI一個特別不起眼的地方。那么怎么來實現(xiàn)?他給出的回答是AGI通用人工智能。
那時候,ChatGPT還沒有問世。他不求錢,也不圖股份,甚至不圖名利,做這件事的所有動因全在于要改變?nèi)祟惿鐣?,推動人類的第四次工業(yè)革命。到那時,基于知識的服務(wù)價格會全部歸零,包括教師、律師、會計、程序員等。所以,也許此刻的你正面臨著失業(yè)的風(fēng)險。
失業(yè)該怎么辦呢?薩姆·奧特曼認(rèn)為由于AGI創(chuàng)造了很多財富,使得一部分人失業(yè),而那些失業(yè)的人可以去追求自己想要的生活。這部分人的生活資金會來自于一個叫Universal Basic Income的計劃,該計劃會將人工智能創(chuàng)造的大量財富回饋給所有人。每個成年人每月都能無條件地收到13500美元維持基本生活。在那時候,商品的價格歸零、服務(wù)的價格歸零,每個月13500美元可以讓我們過得十分富足而自由,不再為了基本的生活物資加班和奔波。只有那樣人類才會更有可能實現(xiàn)自我價值。
在古希伯來語里,“工作”與“奴隸”使用的是同一個詞。在AGI真正出現(xiàn)之后,人類將會從奴隸的身份里解脫出來,奔向想去的遠(yuǎn)方。這一切聽上去像是科幻故事里的情節(jié),但是薩姆·奧特曼堅信會在十年之內(nèi)發(fā)生。他還在斯坦福大學(xué)專門建立了一個UBI的實驗室,用以討論這事情的實現(xiàn)途徑。另外,他在巴爾的摩的某個社區(qū)里開始推廣這個計劃,在行動上真正地想要改變?nèi)祟惖纳娣绞?,讓“按需分配”成為可能?/p>
4)AI Agent的出現(xiàn),從先知到助手
ChatGPT僅僅用來與人類對話肯定是達(dá)不到“幸福生活”的標(biāo)準(zhǔn)的,還需要讓它分擔(dān)勞動。因此,AGI需要往下一步走,變成一個助手。于是,從今年2023年5月份開始,一個全新的東西開始在逐漸成型,這就是ChatGPT+Autonomous Agent,也就是自主代理。
自主代理不同于傳統(tǒng)的AI,它通過分析感知數(shù)據(jù)、獨立思考、調(diào)用工具,實現(xiàn)對通用問題的自動化處理。也就是說,大語言模型能思考、能預(yù)測,也能做判斷。
兩周之前,OpenAI推出了GPTs,它是結(jié)合指令、私有知識以及各種技能組合的定制版ChatGPT。
什么叫GPTs?GPTs就是我剛才提到的的自動代理,Autonomous Agent,我們現(xiàn)在不需要有高明的編程技巧,結(jié)合指令、私有知識以及各種技能組合,你就可以得到定制版的ChatGPT。
喬布斯在1995年所夢想的東西,就是眾多GPTs中間的一個。在不到兩周時間里,全世界已經(jīng)涌現(xiàn)了上千個GPTs,每個人都可以去共創(chuàng)。這必然會導(dǎo)致商業(yè)范式的根本變化。
眾所周知,大約是在20年前,信息行業(yè)不再售賣硬件,轉(zhuǎn)為售賣服務(wù),這就是著名的XaaS(Everything as a Service),那么它的最底層是Infrastructure as a Service(基礎(chǔ)設(shè)施即服務(wù))。比如,微軟當(dāng)時給GPT-3所提供的超級計算機就擔(dān)當(dāng)了這樣一個功能。
在它之上是Platform as a Service(平臺即服務(wù)),它提供操作系統(tǒng)和數(shù)據(jù)庫等基本內(nèi)容,使用者可以在這基礎(chǔ)上開發(fā)自己的軟件然后提供各種服務(wù),這就是所謂的“云計算”。比如說阿里云、騰訊云。
繼續(xù)往上是SaaS,Software as a Service(軟件即服務(wù))。它使得我們無需專門買某個軟件了,可以直接拿來用。比如iCloud,Slack等。
但是隨著大語言模型的出現(xiàn),基于大模型生產(chǎn)服務(wù)的生態(tài)就會出現(xiàn)。這會涌現(xiàn)出一個非常大的機會——開源生態(tài)。
當(dāng)OpenAI推出ChatGPT系列之時,所有的人工智能廠商都覺得自己沒有希望了。在這個時候,Meta作出了一件異乎尋常的舉動,把當(dāng)時還未開發(fā)完全的LLM,也就是“羊駝”系統(tǒng)拿去開源,供所有人使用。消息放出之后,上百萬的程序員為擁有自己的開源系統(tǒng)而歡欣鼓舞。在短短的五個月之內(nèi),一個龐大的“羊駝家族”就此產(chǎn)生,每個人在其中不斷地添磚加瓦,使得這個開源系統(tǒng)達(dá)到了OpenAI較初級版本的性能,讓每個人可以基于大模型展開創(chuàng)業(yè)。讓每個商業(yè)都可以擁有自己的大模型。
有了大模型之后,下面一步需要做的是Agent as a Service,也就是每個人都可以創(chuàng)造自己的GPTs,把自己的私有知識放進去,構(gòu)建出一個服務(wù)大眾的平臺。更重要的是,將來的商業(yè)模式會因此發(fā)生翻天覆地的變化,一個人可以構(gòu)建一個E-Business。也就是說,一家公司不再需要一堆人運行,只需要三兩人就能夠運轉(zhuǎn)。
因此我們不難理解OpenAI聯(lián)合創(chuàng)始人Andrej Karpathy所說的那句話:“普通人、創(chuàng)業(yè)者和極客在構(gòu)建Agents方面比OpenAI更有優(yōu)勢,大家處于平等競爭的狀態(tài)?!币驗殡m然我們在大模型賽道上沒有太大的機會,但是在助手這一領(lǐng)域里,所有人都是平等的。此時此刻,一家只有兩三人的公司顛覆一家上百、上千人的公司成為可能,因為壁壘已經(jīng)打破,有創(chuàng)意者才是贏家。
…… 篇幅所限,本文內(nèi)容僅為課程十分之一,
點擊海報,觀看完整課程!
第二次認(rèn)知革命已經(jīng)到來
1) 知識工作崗位的困境
知識服務(wù)的價格降低意味著很多的工作崗位會受到影響。
美國高盛做了一個調(diào)查,調(diào)查表明,美國大約7%的工作崗位可以被AI取代,63%的工作崗位會得到AI的輔助。也就是說,不懂AI,就很可能面臨失業(yè)。我們還可以看到,ChatGPT出現(xiàn)后自由職業(yè)者的需求跳水式地下降,同時價格然后也在跳水式地下降。僅僅幾個月就發(fā)生了這樣的變化。因此我們可以預(yù)想,隨著AGI的進一步發(fā)展,變化只會更加劇烈。
2)如果AGI只有理性的秩序,沒有感性的溫度
在更宏大的范疇,它會帶來什么呢?假設(shè)我們讓它解決溫室問題呢。通常來說,此時的ChatGPT會先分析一番,查看造成氣溫上升的主要原因,我們都知道原因在于“人類的存在”。那么,接下來該怎么做?消滅人類嗎?這肯定是最有效的方式。AGI會選擇這樣做嗎?
“消滅人類”無疑是一個理性的解決方案,但它缺少一種本質(zhì)的思考和感性的溫度。因此,僅有科學(xué)的理性,就可能會導(dǎo)致一些災(zāi)難性的事件。
因此,當(dāng)OpenAI取得重大成果的時候,很大一部分人拉響了警鈴。在5月30號,薩姆·奧特曼和其他大型AGI公司的負(fù)責(zé)人聯(lián)合發(fā)布了一則聲明,這個聲明只有一句話:與其他社會規(guī)模的風(fēng)險如大流行病和核戰(zhàn)爭一樣,降低人工智能引發(fā)的人類滅絕的風(fēng)險應(yīng)該成為全球的優(yōu)先事項。
在此之前,美國政府出臺了一項政策,規(guī)定AI公司在訓(xùn)練前沿大模型之前必須通知政府。也就是說,訓(xùn)練大模型不再是公司個人的行為,而要進入政府的監(jiān)管視線內(nèi)。
目睹AGI以恐怖之勢發(fā)展的局面,人工神經(jīng)網(wǎng)絡(luò)之父Hinton倍感擔(dān)憂,他意識到,這一切的開始只是為了人類的幸福,但是在此時此刻,它卻具有摧毀人類文明風(fēng)險。
現(xiàn)在,我們打開了一個潘多拉魔盒,釋放出來的可能是美好,也可能是邪惡,該怎么辦呢?
原本Hinton深感絕望,從Google辭職養(yǎng)老。突然在一個月之前出現(xiàn)在公眾視野里,表示將擔(dān)任一家機器人公司的顧問,因為他看到該公司利用機器學(xué)習(xí)和視覺傳感器共同設(shè)計的方法,顯示出AI用于機器人技術(shù)的巨大潛力。
3) AGI的演化,從領(lǐng)域模型到認(rèn)知模型
為什么他決定當(dāng)顧問,是什么力量請他出山?因為他看到了一種解決大語言模型因為過于理性可能會對人類造成摧毀的一種方式。
即我們需要進入第三個階段,創(chuàng)造出真正的生成式的代理,完成我們的指令,這就是ChatGPT+Generative Agent。以前為自動代理,現(xiàn)在是生成式的代理,它們之間的區(qū)別在于從領(lǐng)域模型轉(zhuǎn)變?yōu)檎J(rèn)知模型,這就是我們通常所見到的智能的三層次模型。在ChatGPT出現(xiàn)之前,存在著任務(wù)模型,它能夠完成特定的任務(wù),比如識別面孔、下圍棋等。而在ChatGPT之后,任務(wù)模型變成了領(lǐng)域模型,它能夠完成特定的工作,比如教師、醫(yī)生、律師、司機等基于知識的崗位。
但領(lǐng)域模型還不夠,接下來它需要能聽、能看、能思考、能規(guī)劃、能行動。也就是說,我們即將創(chuàng)造出與人類相似的一個全新的物種,它不再停留在計算機機房里,而是出現(xiàn)在你散步的大街上。
4)AGI的“超級愛對齊”
這個時候,我們希望它具有什么樣的能力呢?我特別喜歡的一幅圖,西班牙的斗牛場上,感到身體不適的斗牛士,他靠在場邊,而第一個趕來的,來救助他的,是渾身插滿了劍的這頭牛。這頭牛沒有攻擊,而是默默地看著他。這時候我們能看到一種感性的成分,一種善良的成分在里面,而這種善良的成分必須要通過另外一種途徑來做到,怎么做到呢?
首先來看,我們?nèi)绾蝸順?gòu)建一個人。
在人的大腦里,最底層的腦干是呼吸的中樞,往上面走是小腦,他是讓我們能夠行走的一部分;再往上面走是丘腦,它能夠感知外界;再往上面走是邊緣系統(tǒng),它能產(chǎn)生情緒、情感,作出一些簡單的判斷。最上面則是在過去300萬年里人類進化明顯的地方——大腦皮層,它的體積增加了3倍,與人類的自由意志、復(fù)雜判斷和符號思維有關(guān)。這一部分我們把它稱為理性,下面一部分我們把它稱為感性。
大語言模型學(xué)習(xí)的正是人類的理性,但它并沒有觸達(dá)人類的感性。也就是說,我們現(xiàn)在僅僅有科學(xué)的尺度,但是沒有情感的溫度。因此,接下來的工作是讓大模型獲得情感的溫度。
這里面講的感性,它擁有兩個特征:
第一個特征是“身臨”。我相信,就算我們看了很多旅游風(fēng)光片、紀(jì)錄片,仍然想要親自去到那個地方,因為只有身臨其境,才會有真實的感受。
第二個特征是“體驗”。如果你假設(shè)你身處金門大橋腦袋卻充斥著工作內(nèi)容,是不會有強烈的體驗感的,因此只有沉浸其中,才會有感性產(chǎn)生。
正如出身中產(chǎn)的切·格瓦拉只有在獨自騎行、經(jīng)歷寒冷的夜晚之時,才會說出“那是我經(jīng)歷的最冷的一晚,但那一晚也讓我稍稍靠近了人類?!睔v史學(xué)家維拉斯說,格瓦拉的政治與社會意識的覺醒,與他直接目睹貧困、剝削、疾病與痛苦有關(guān),而不是來自于書本的知識或者有學(xué)識人之間的討論。
與此類比,現(xiàn)在的ChatGPT相當(dāng)于滿腹經(jīng)綸,但還僅僅停留在機房里面,它沒有真正邁入世界。這就是為什么Hinton決定重新出山的原因。
一個新的方向開始生成,我們把這一塊叫做Generative Agent(智能體)。它不僅僅能夠幫人類完成任務(wù),它還擁有欲望、擁有信念、擁有意圖,以及擁有行動能力。
智能體應(yīng)該具有哪些特點?我們可以從三個維度理解:1、它要有多種的技能。2、它能夠處理各種各樣的情況。3、它必須和世界產(chǎn)生真實的交互。
一旦具有這三方面的能力,就不再是一個基座大模型,而變成一個基座代理。這是我們現(xiàn)在正在做的事情。
5)人類歷史上的第二次認(rèn)知革命
前段時間,馬斯克推出了Grok,它類似于ChatGPT這樣的語言模型,但又與OpenAI走了一種完全不同的道路。他將Grok接入了Twitter里,讓Grok混跡于眾人之中和人類進行交流。他表示,現(xiàn)在這個大語言模型和OpenAI類似,但注重訓(xùn)練它的同理心。
值得注意的是,當(dāng)智能體一旦擁有意識之后,它就會按照自我的觀念快速發(fā)展,這時我們就可能會面臨一個奇點,文明的載體也不再以人為單位運行,而是以AGI的方式運行。因此,我把這個奇點來臨的時刻稱為“人類歷史上的第二次認(rèn)知革命”。
我們經(jīng)常談到認(rèn)知革命,其實它們都不配。為什么?因為第一次認(rèn)知革命使得我們的祖先成為萬物之靈,人類成為世界的主宰。而第二次認(rèn)知革命,就是人類創(chuàng)造出了一個全新的物種。這天來臨的時刻,文明的火炬就要由我們?nèi)祟悅鞯紸GI的手中。
SoftBank的孫正義在最近的一次大會上表示,通用人工智能將在10年之內(nèi)實現(xiàn)。按照他的預(yù)設(shè),到2033年時,人工智能的智能程度將是人類智力總和的10倍,相當(dāng)于人類和猴子之間的智力差異。
雖然這并沒有確鑿的依據(jù),但我們試想一下,去年這個時候提到ChatGPT的駭人功能,絕大部分人都不會相信。但是事實證明,我們對通用人工智能的想象一定不要過于保守。因為一個新世界的大門正在徐徐打開。
我們的未來會是什么樣子?
其中一種可能,亦是所期望的,就像《星球大戰(zhàn)》里面的R2-D2,是我們忠實的助手,無微不至地照顧我們所有的一切。另一種可能,則像《終結(jié)者》里面的劇情,機器人試圖毀滅人類、主宰世界。
我覺得在未來還有第三種可能,這也是我們正要努力的方向,那就是人機合二為一。人類最脆弱的地方不是思想,而是肉體,因此有沒有可能讓我們擺脫脆弱的肉體,把我們的思想上傳到計算機里,獲得真正的永生。
這件事聽上去像是天方夜譚,但也并不是不可能。正如現(xiàn)在硅谷最火熱的兩個投資方向,一個是AGI,另一個是健康產(chǎn)業(yè)。如果人類能夠成功地人機合一的話,那么AGI它不僅不是我們的敵人,還會極大拓展我們對這整個世界的了解,從而不再被有限的生命束縛,真正地走向自由。
審核編輯:劉清
-
人工智能
+關(guān)注
關(guān)注
1789文章
46652瀏覽量
237083 -
OpenAI
+關(guān)注
關(guān)注
9文章
1033瀏覽量
6378 -
ChatGPT
+關(guān)注
關(guān)注
29文章
1546瀏覽量
7358
原文標(biāo)題:清華教授劉嘉:OpenAI紛爭的潛藏原因 , AGI到底是“工具”還是“超級生命”?
文章出處:【微信號:CEOMakers,微信公眾號:CEO創(chuàng)客】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
評論