馬斯克等“千人聯(lián)名”呼吁暫停AI研究事件經(jīng)過(guò)一天發(fā)酵后,以吳恩達(dá)、田淵棟為代表的AI研究支持派也開(kāi)始發(fā)聲,公開(kāi)反對(duì)“千人聯(lián)名”,一場(chǎng)關(guān)于“要不要打開(kāi)潘多拉魔盒”的論戰(zhàn)拉開(kāi)帷幕,被網(wǎng)友戲稱為“三體照進(jìn)現(xiàn)實(shí)?降臨派、拯救派和幸存派不是開(kāi)玩笑的?!边@究竟是怎么一回事?
暫停or繼續(xù),ChatGPT訓(xùn)練引發(fā)馬斯克、吳恩達(dá)論戰(zhàn)
事情起因是3月29日美國(guó)非營(yíng)利性組織未來(lái)生命研究所(Future of Life Institute)發(fā)布的一封公開(kāi)信,信中呼吁所有人工智能(AI)實(shí)驗(yàn)室立即暫停訓(xùn)練比GPT-4更強(qiáng)大的AI系統(tǒng)。
“千人聯(lián)名”公開(kāi)信(圖片來(lái)源于網(wǎng)絡(luò)截圖)
半年前,ChatGPT的發(fā)布推動(dòng)了AI熱潮,不到兩個(gè)月的時(shí)間就有了上億個(gè)月活用戶。時(shí)至今日,與ChatGPT相關(guān)的話題仍舊頻繁登上社交媒體熱搜榜單,A股市場(chǎng)上ChatGPT概念股板塊歷經(jīng)多番漲停潮,百度、阿里、京東、網(wǎng)易等科技公司相繼宣布推出或研發(fā)對(duì)標(biāo)產(chǎn)品的計(jì)劃。
就在行業(yè)期待通用型AI能夠在ChatGPT的熱潮中迎來(lái)真正落地的時(shí)刻,卻冒出了呼吁暫停AI訓(xùn)練的公開(kāi)信,而后特斯拉及推特首席執(zhí)行官馬斯克等上千人在這封公開(kāi)信中予以了簽名,Stability AI CEO、07年圖靈獎(jiǎng)得主、蘋(píng)果聯(lián)合創(chuàng)始人、多位DeepMind工程師也都赫然在列,形成了極具分量的“千人聯(lián)名”,引發(fā)業(yè)界關(guān)注。
這封公開(kāi)信表明了對(duì)AI潛在風(fēng)險(xiǎn)的擔(dān)憂:“只有當(dāng)我們能夠確信,AI體系的有利因素都是積極的,且風(fēng)險(xiǎn)都可控,一個(gè)強(qiáng)大的AI體系才能成熟。”
吳恩達(dá)公開(kāi)發(fā)貼反對(duì)“千人聯(lián)名”(圖片來(lái)源于推特截圖)
很快,吳恩達(dá)、田淵棟等一眾AI大牛發(fā)文公開(kāi)反對(duì)“千人聯(lián)名”,吳恩達(dá)表示,在GPT-4出現(xiàn)之后要求AI訓(xùn)練暫停6個(gè)月是很可怕的事情:它(GPT-4)在教育、醫(yī)療保健、食品等領(lǐng)域都有很多新的應(yīng)用,這將幫助許多人。
在吳恩達(dá)的帖子下面,Meta數(shù)據(jù)科學(xué)家林致遠(yuǎn),英偉達(dá)AI研究科學(xué)家Jim Fan也都表示贊同,他們認(rèn)為“6個(gè)月暫停令”本身并不是一個(gè)非常切實(shí)可行的建議,是在扼殺AI進(jìn)步。
雙方提到同一關(guān)鍵詞“安全”,技術(shù)驚人進(jìn)化引發(fā)人類擔(dān)憂
無(wú)論是呼吁暫停研究的“拯救派”還是反對(duì)千人聯(lián)名的“降臨派”,仔細(xì)分析雙方的發(fā)言,發(fā)現(xiàn)焦點(diǎn)集中在了“安全”:“千人聯(lián)名”公開(kāi)信中建議,利用“暫停訓(xùn)練”的這段時(shí)間,開(kāi)發(fā)和實(shí)施一套共享安全協(xié)議,用于高級(jí)人工智能設(shè)計(jì)和開(kāi)發(fā),并由獨(dú)立外部專家進(jìn)行嚴(yán)格審核和監(jiān)督……人工智能的研究和發(fā)展,應(yīng)該重新聚焦于朝著更準(zhǔn)確、安全、可信可解釋等的AI系統(tǒng)開(kāi)發(fā)工作上來(lái)。吳恩達(dá)的帖子中也提到,要提高人工智能的安全性,應(yīng)該是在安全方面進(jìn)行更大的投資,有關(guān)透明度和審計(jì)的規(guī)定將更加切實(shí)可行。
從雙方對(duì)AI“安全”的關(guān)注可以看出,這輪關(guān)于“暫停AI訓(xùn)練”的爭(zhēng)議,本質(zhì)上是人們對(duì)于AI技術(shù)無(wú)序發(fā)展的恐懼和不安,這也并非AI發(fā)展中第一次引發(fā)這樣的擔(dān)憂。2015年,物理學(xué)家斯蒂芬·霍金和埃隆·馬斯克等數(shù)位科學(xué)家、企業(yè)家,與人工智能領(lǐng)域有關(guān)的投資者,就曾聯(lián)名發(fā)出了一封公開(kāi)信,警告人們必須更多地注意人工智能的安全性及其社會(huì)效益。
當(dāng)年的呼吁并沒(méi)有阻擋技術(shù)前進(jìn)的步伐,如今AI已經(jīng)呈現(xiàn)出了更加令人不安的“智能”,以至于很多人擔(dān)心,AI會(huì)不會(huì)像科幻作品中描述的那樣,可以像人一樣自主思考,甚至更全面更智慧,就像《流浪地球2》里的數(shù)字生命計(jì)劃一樣,人的智慧逃逸到數(shù)字空間之中,那么人類是否還有存在的必要?《人類簡(jiǎn)史》當(dāng)中也描繪了未來(lái)人類這個(gè)物種可能面臨的巨變。
清華大學(xué)計(jì)算機(jī)系長(zhǎng)聘副教授、北京聆心智能科技有限公司創(chuàng)始人黃民烈表示,AI距離具備科幻作品中呈現(xiàn)的那種自主人格,還相差很遠(yuǎn)的距離。“通俗來(lái)說(shuō),AI學(xué)習(xí)了大量的人類對(duì)話數(shù)據(jù),而這些對(duì)話來(lái)自不同的人,所以可以認(rèn)為AI學(xué)習(xí)到了一個(gè)‘平均’的人格,但也僅僅是語(yǔ)言說(shuō)話風(fēng)格,而且是來(lái)自人類的說(shuō)話風(fēng)格,并不是AI自發(fā)形成的?!?/p>
但是,科學(xué)的確存在倫理風(fēng)險(xiǎn),尤其是人類對(duì)AI的情感依賴越來(lái)越多的情況下,黃民烈教授舉例:假想某個(gè)受到生活嚴(yán)重打擊的人,對(duì)AI說(shuō):“我想找個(gè)橋跳下去”,AI立刻提供了附近橋的位置并導(dǎo)航路徑,后果細(xì)思恐極。
“千人聯(lián)名”事件前后發(fā)生的一次自殺事件似乎印證了這種擔(dān)憂,一名化名為皮埃爾的比利時(shí)男子在與一個(gè)名為“艾麗莎”的智能聊天機(jī)器人頻繁聊天六周后自殺身亡。“艾麗莎”由美國(guó)硅谷一家初創(chuàng)公司開(kāi)發(fā),背后由GPT-J支撐,與ChatGPT采用OpenAI開(kāi)發(fā)的GPT-3或GPT-4為競(jìng)爭(zhēng)關(guān)系。
ChatGPT的開(kāi)發(fā)公司OpenAI也曾在GPT-4技術(shù)報(bào)告中描述了一些可預(yù)見(jiàn)的,與偏見(jiàn)、虛假信息、過(guò)度依賴、隱私、網(wǎng)絡(luò)安全等相關(guān)的風(fēng)險(xiǎn)——ChatGPT“胡言亂語(yǔ)”的問(wèn)題始終沒(méi)有得到有效解決,其因此備受詬病。
用魔法打敗魔法,用技術(shù)規(guī)范技術(shù)
由此看來(lái),暫停AI研究的確不切實(shí)際,借用Meta FAIR研究院研究員/高級(jí)經(jīng)理、CMU機(jī)器人系博士田淵棟對(duì)AI發(fā)展的描述來(lái)說(shuō):一旦開(kāi)始,就沒(méi)有辦法停止或扭轉(zhuǎn)這一趨勢(shì),這就是進(jìn)化的必然。
但這不意味著人類對(duì)可能存在的倫理安全問(wèn)題“束手無(wú)策”,ChatGPT這類生成式AI是通過(guò)范例學(xué)習(xí)的,他們的行為是可以規(guī)范的,應(yīng)該鼓勵(lì)合規(guī)的機(jī)構(gòu)去發(fā)展AI,用合法AI去對(duì)抗非法AI,而不是停滯不前。
事實(shí)上,AI飛速向前發(fā)展的同時(shí),有關(guān)AI安全的技術(shù)也從未止步。前不久,微軟在其首屆Microsoft Secure活動(dòng)中發(fā)布了一款生成式AI安全產(chǎn)品Security Copilot,把AI技術(shù)應(yīng)用到了網(wǎng)絡(luò)安全領(lǐng)域。該產(chǎn)品由OpenAI的大型語(yǔ)言模型GPT-4和微軟自家的安全模型提供支持,在微軟云服務(wù)Azure上運(yùn)行,用以幫助更快、更準(zhǔn)確地檢測(cè)和響應(yīng)安全威脅。
在更早的2021年,微軟就成立了安全、合規(guī)、身份與管理部門(mén)來(lái)應(yīng)對(duì)日益加劇的網(wǎng)絡(luò)安全挑戰(zhàn)。2022年,網(wǎng)絡(luò)安全業(yè)務(wù)為微軟帶來(lái)了超200億美元的營(yíng)收。微軟曾稱,未來(lái)五年間將不斷加大對(duì)網(wǎng)絡(luò)安全業(yè)務(wù)的投入,預(yù)計(jì)將在客戶安全保護(hù)方面投入近200億美元。
國(guó)內(nèi)在AI安全方面的相關(guān)成果也正在出現(xiàn),例如,3月聆心智能聯(lián)合清華大學(xué)CoAI實(shí)驗(yàn)室歷經(jīng)兩年建立的大模型安全評(píng)估框架正式發(fā)布,對(duì)ChatGPT的安全設(shè)計(jì)所不能規(guī)避的風(fēng)險(xiǎn)問(wèn)題形成了更全面的補(bǔ)充,建立了大模型安全分類體系,設(shè)置了八大不安全的對(duì)話場(chǎng)景,包括政治敏感、犯罪違法、身體健康、心理健康、財(cái)產(chǎn)隱私、歧視/偏見(jiàn)、辱罵/仇恨言論、倫理道德,并針對(duì)以上八大不安全場(chǎng)景對(duì)大模型進(jìn)行針對(duì)性升級(jí),使模型能夠在遇到安全問(wèn)題時(shí)給予正確的回復(fù)策略,不去做判斷和誤導(dǎo)。
此外,研究團(tuán)隊(duì)還收集和構(gòu)造了相應(yīng)的hard case(更難識(shí)別和處理的安全測(cè)試用例),總結(jié)和設(shè)計(jì)了六種一般模型難以處理的安全攻擊方式,稱為指令攻擊。使安全體系更加完善,進(jìn)一步改進(jìn)和優(yōu)化模型表現(xiàn)。
據(jù)了解,早在去年7月,黃民烈教授就在媒體報(bào)道中表現(xiàn)出了對(duì)AI安全的關(guān)注,他表示,“AI對(duì)話系統(tǒng)下一階段發(fā)展的重點(diǎn)是更有倫理、更道德、更安全。我們可以通過(guò)額外的資源、規(guī)則、檢測(cè)手段賦予AI這樣的能力,使風(fēng)險(xiǎn)降至最低。”
“潘多拉的魔盒”難以逆轉(zhuǎn),積極擁抱AI for Social good
在科技發(fā)展的宏偉歷史中,任何一項(xiàng)新興技術(shù)的出現(xiàn)往往會(huì)引起人們對(duì)未知的恐懼,那些能夠引起社會(huì)巨大變革的技術(shù)總是被比喻為“潘多拉的魔盒”,可能是引發(fā)災(zāi)難的根源,但是別忘了除了欲望與罪惡,盒子中也藏著希望。并且,“潘多拉的魔盒”一旦打開(kāi),很難扭轉(zhuǎn)這一趨勢(shì),我們應(yīng)該做的是規(guī)避不幸,釋放希望。
就像當(dāng)前急速發(fā)展的AI技術(shù),暫停研究的呼吁是為了促進(jìn)AI技術(shù)建立較高的道德標(biāo)準(zhǔn)和倫理規(guī)范,確保AI技術(shù)的應(yīng)用不會(huì)對(duì)個(gè)人和社會(huì)造成潛在的危害。但應(yīng)該看到,AI技術(shù)的發(fā)展是人類社會(huì)前進(jìn)的必經(jīng)之路,比起暫停進(jìn)步,更應(yīng)該做的是理解AI,適應(yīng)它并利用其力量,同時(shí)建立起安全可信的框架規(guī)范其發(fā)展,確保其在促進(jìn)人類社會(huì)發(fā)展的軌道上不偏航。
發(fā)展AI最終的目標(biāo)是為人類謀福祉,而不是傷害人類,期待AI for Social good(AI賦能社會(huì))盡快到來(lái),為人類社會(huì)發(fā)展帶來(lái)更高的社會(huì)意義和價(jià)值。
審核編輯 黃宇
-
AI
+關(guān)注
關(guān)注
87文章
29806瀏覽量
268103 -
ChatGPT
+關(guān)注
關(guān)注
29文章
1546瀏覽量
7356
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論