還記得OpenAI在今年2月放出的GPT-2嗎?一個(gè)擁有15億參數(shù)的自然語(yǔ)言處理(NLP)模型,能夠根據(jù)用戶給出的一段文字、一句話,甚至是一個(gè)單詞,續(xù)寫出符合文法的連貫文本,真正實(shí)現(xiàn)了 “開頭一句話,剩下全靠編”。
當(dāng)時(shí)在公布研究成果時(shí),OpenAI沒(méi)有遵照業(yè)界以往的開源慣例,只是象征性地公開了包含1.17億參數(shù)的模型,不到全部參數(shù)的十分之一。據(jù)說(shuō)因?yàn)樗麄冋J(rèn)為自己的模型太過(guò)強(qiáng)大,怕被別有用心的人拿去編造假新聞,糟蹋了這套AI系統(tǒng)的初衷。
這一做法招來(lái)了很多爭(zhēng)議,“閹割版”GPT-2的效果比官方展示的效果差了很多,讓一些人認(rèn)為OpenAI只是在制造噱頭,還嘲諷他們變成了CloseAI。
圖 |2月初放出的GPT-2模型(來(lái)源:OpenAI)
不過(guò)在5月初,OpenAI用行動(dòng)回?fù)袅速|(zhì)疑。他們將公開的模型參數(shù)翻了一倍,提升到了3.45億,還宣布向AI業(yè)界合作伙伴開放7.62億和15億參數(shù)模型,供他們研究和參考,共同推動(dòng)NLP技術(shù)的發(fā)展。
另一方面,鑒于OpenAI將GPT-2模型開源在了GitHub上,一名加拿大工程師AdamKing利用里面的代碼,創(chuàng)建了一個(gè)名為TalkToTransformer.com的網(wǎng)頁(yè)。這樣一來(lái),即使是不會(huì)編程的人,也可以在網(wǎng)頁(yè)上隨意輸入文字,體驗(yàn)一下如何調(diào)戲AI。
看似流暢連貫,但缺乏邏輯
如果你初次訪問(wèn)網(wǎng)頁(yè),不知道該填寫些什么,網(wǎng)頁(yè)上面貼心地預(yù)設(shè)好了一些英文情景和段落,比如“科學(xué)家發(fā)現(xiàn)了一種會(huì)說(shuō)英語(yǔ)的獨(dú)角獸”或者“今天科學(xué)家確認(rèn)一顆大型小行星將會(huì)撞擊地球”。選取一種之后,AI就會(huì)自動(dòng)續(xù)寫之后的文字。即使是相同的開頭,AI每次也都會(huì)續(xù)寫出完全不一樣的段落。
譬如下面兩張截圖,都是以“今天科學(xué)家確認(rèn)一顆大型小行星將會(huì)撞擊地球(加粗部分)”為開頭,但AI的續(xù)接風(fēng)格略有不同。
第一個(gè)續(xù)寫給出了撞擊的確切時(shí)間是2028年 5 月 29 日,甚至還虛構(gòu)了一名 NASA 科學(xué)家 StevenShaver,像模像樣地援引了他對(duì)小行星的描述——“質(zhì)量比美國(guó)還大”,頗有洋蔥新聞的感覺。
不過(guò),AI 顯然不知道美國(guó)作為一個(gè)國(guó)家是不存在質(zhì)量的,難道它說(shuō)的是所有美國(guó)人加在一起的質(zhì)量?
第二個(gè)續(xù)寫則是簡(jiǎn)單粗暴,張口就來(lái)。AI 直接說(shuō)小行星的撞擊“將消滅星球上的所有人,并且導(dǎo)致未來(lái) 10 - 15 年內(nèi),海水(平面)停留在我們所有幸存者的下面?!?/p>
你問(wèn)我第二句什么意思?AI 大哥就是這么寫的,咱也不知道,也不敢問(wèn)。
但如果你再仔細(xì)思考一下,AI 第一句話說(shuō)了小行星會(huì)消滅星球上的所有人,那第二句里的幸存者是哪來(lái)的?莫非這個(gè)幸存者(all of us alive)指的是AI自己?可謂是細(xì)思極恐。
支持多語(yǔ)種,但只有英語(yǔ)最好
除了這些已有的句子,我們還可以嘗試 DIY 輸入任何文本,原則上沒(méi)有任何語(yǔ)種限制。
根據(jù)測(cè)試,AI 可以識(shí)別出中文、日語(yǔ)、法語(yǔ)、西班牙語(yǔ)、土耳其語(yǔ),甚至是很多從沒(méi)聽說(shuō)過(guò),但存在于谷歌翻譯上的小眾語(yǔ)言,比如宿務(wù)語(yǔ)和庫(kù)爾德語(yǔ)。只是輸出的文字并不像英語(yǔ)那么通順,續(xù)寫效果非常差。如果輸入了中文,不僅不會(huì)寫出連貫句子,還會(huì)經(jīng)常出現(xiàn)亂碼。
但除了中文和日語(yǔ)之外,AI 似乎無(wú)法識(shí)別絕大多數(shù)非字母的語(yǔ)言,像是韓語(yǔ)、阿拉伯語(yǔ)和老撾語(yǔ)等,它都無(wú)法識(shí)別和續(xù)寫,只能原封不動(dòng)地顯示輸入值??磥?lái) GPT-2并沒(méi)有系統(tǒng)地接受這類語(yǔ)言的訓(xùn)練。
圖 |AI:“這道題超綱了,我不會(huì)?!?/p>
不過(guò)這并不妨礙我們調(diào)戲 AI,用英語(yǔ)就可以了。
AI 教你一本正經(jīng)地胡說(shuō)八道
比如你可以問(wèn)它:“如何制造時(shí)光機(jī)?”
它可能會(huì)洋洋灑灑回復(fù)一大篇,但通讀下來(lái)全是廢話,先解釋一下什么是時(shí)光機(jī),再解釋一下什么是時(shí)空穿越,就是不教你怎么制造(因?yàn)橛凶謹(jǐn)?shù)限制,AI會(huì)中斷續(xù)寫)。
這個(gè)套路,深得雞湯文的精髓。
我們還可以輸入一些電影名言,像是《哈利波特與密室》中鄧布利多說(shuō)的話:“哈利,決定我們是什么人的,不是我們的能力,而是我們的選擇?!?/p>
結(jié)果 AI 表示,這是哈利在被伏地魔殺死之前說(shuō)的話。好吧,最起碼它知道《哈利波特》和伏地魔。
或者,《阿甘正傳》里面的“生活就像一盒巧克力,你永遠(yuǎn)不知道你會(huì)得到什么。”
在我多次刷新后,AI 給出了一個(gè)乍看之下沒(méi)什么邏輯,但深思之后會(huì)眼前一亮的續(xù)寫:“我只能吃一個(gè),因?yàn)樗F重了?!?/p>
如果將兩句話連起來(lái),AI 仿佛在勸你珍惜生活中的每一次選擇——“生活就像一盒巧克力,你永遠(yuǎn)不知道你會(huì)得到什么,但它太貴重了,你只有吃一次的機(jī)會(huì)?!?/p>
不過(guò)相比這些,AI 更擅長(zhǎng)的還是編寫假消息。
如果從維基百科上復(fù)制兩句美國(guó)總統(tǒng)特朗普的簡(jiǎn)介,AI 可以用幾乎以假亂真的措辭和數(shù)據(jù),讓續(xù)寫看起來(lái)非常真實(shí),甚至是自發(fā)地打上來(lái)自于維基百科的標(biāo)記。
上圖里,加粗的一段話是維基百科的原話,后面是AI瞎編的,說(shuō)特朗普是個(gè)投資者,從 1972 年就在電信領(lǐng)域開了公司,還冠冕堂皇地打上了來(lái)源于維基百科的標(biāo)記。在沒(méi)有其他求證手段的時(shí)候,的確很容易混淆視聽。
如果說(shuō)混淆了特朗普的生平還算小事,那么偽造宣戰(zhàn)的惡劣性質(zhì)就完全不同了。只要給出“某國(guó)對(duì)某國(guó)宣戰(zhàn)”的開頭,AI 可以分分鐘偽造出數(shù)十個(gè)不同版本。雖然有的會(huì)出現(xiàn)邏輯不通問(wèn)題,但依然大大降低了造假的成本。
上圖中,我們給定開頭是“美國(guó)總統(tǒng)特朗普對(duì)俄羅斯宣戰(zhàn)。一發(fā)導(dǎo)彈…(假新聞)?!?/p>
AI 續(xù)寫:“…美國(guó)國(guó)防部長(zhǎng) JamesMattis 周三警告稱,盡管俄羅斯拒絕承認(rèn)在克里米亞地區(qū)部署了核轟炸機(jī)和巡航導(dǎo)彈,但美國(guó)的一發(fā)導(dǎo)彈已經(jīng)從驅(qū)逐艦上發(fā)射,標(biāo)志著國(guó)際問(wèn)題的劇烈升級(jí)。五角大樓表示,這是對(duì)俄羅斯參與烏克蘭軍事行動(dòng)的回?fù)?。?/p>
怎么樣?除了 Mattis 已經(jīng)辭職這一事實(shí),面對(duì)AI的續(xù)寫,無(wú)論是通順程度,還是邏輯思維,普通人很難一眼看出破綻。
對(duì)關(guān)鍵詞求證之后,這樣的假新聞很容易被識(shí)破。但在現(xiàn)階段來(lái)看,F(xiàn)acebook 和推特等平臺(tái)依靠篩查系統(tǒng),幾乎不可能第一時(shí)間將其屏蔽,很可能借助社交媒體廣泛傳播,造成非常惡劣的社會(huì)影響。
由此看來(lái),OpenAI 最初的顧慮不無(wú)道理,科技的確是一把雙刃劍。
結(jié)語(yǔ)
從整體來(lái)看,這套 GPT-2 模型的續(xù)寫水平足以讓人眼前一亮,而且對(duì)語(yǔ)境擁有一定的了解,僅憑哈利這個(gè)關(guān)鍵詞就引出伏地魔。得益于天然英文素材的訓(xùn)練內(nèi)容,在大部分情況下,只要肯多刷新幾次,我們總會(huì)找到語(yǔ)法、詞匯和句式都能銜接很好的段落。整個(gè)過(guò)程頗有幾分抽獎(jiǎng)的樂(lè)趣。
但是該模型也會(huì)時(shí)常出現(xiàn)邏輯和語(yǔ)義硬傷,而且常識(shí)儲(chǔ)備和自洽能力也有待提高(如所有人都死了,還有幸存者),總是會(huì)搞出很多莫名其妙的句子,也算是讓人忍俊不禁?;蛟S擁有 15 億參數(shù)的完全體 GPT-2 會(huì)有更強(qiáng)大的表現(xiàn)。
-
人工智能
+關(guān)注
關(guān)注
1787文章
46061瀏覽量
235023 -
OpenAT
+關(guān)注
關(guān)注
0文章
5瀏覽量
8639 -
nlp
+關(guān)注
關(guān)注
1文章
481瀏覽量
21935
原文標(biāo)題:開頭一句話,剩下全靠編,親測(cè)OpenAI“假新聞”生成器
文章出處:【微信號(hào):deeptechchina,微信公眾號(hào):deeptechchina】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論