0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

自然語言處理范式正在變遷

jf_78858299 ? 來源: 李rumor ? 作者:車萬翔 ? 2023-02-22 11:17 ? 次閱讀

最近幾天被OpenAI推出的ChatGPT[1]刷屏了,其影響已經(jīng)不僅局限于自然語言處理(NLP)圈,就連投資圈也開始蠢蠢欲動(dòng)了,短短幾天ChatGPT的用戶數(shù)就超過了一百萬。通過眾多網(wǎng)友以及我個(gè)人對(duì)其測試的結(jié)果看,ChatGPT的效果可以用驚艷來形容,具體結(jié)果我在此就不贅述了。不同于GPT-3剛推出時(shí)人們的反應(yīng),對(duì)ChatGPT大家發(fā)出更多的是贊嘆之詞。聊天、問答、寫作、編程等等,樣樣精通。因此也有人驚呼,“通用人工智能(AGI)即將到來”、“Google等傳統(tǒng)搜索引擎即將被取代”,所以也對(duì)傳說中即將發(fā)布的GPT-4更加期待。

從技術(shù)角度講,ChatGPT還是基于大規(guī)模預(yù)訓(xùn)練語言模型(GPT-3.5)強(qiáng)大的語言理解和生成的能力,并通過在人工標(biāo)注和反饋的大規(guī)模數(shù)據(jù)上進(jìn)行學(xué)習(xí),從而讓預(yù)訓(xùn)練語言模型能夠更好地理解人類的問題并給出更好的回復(fù)。這一點(diǎn)上和OpenAI于今年3月份推出的InstructGPT[2]是一致的,即通過引入人工標(biāo)注和反饋,解決了自然語言生成結(jié)果不易評(píng)價(jià)的問題,從而就可以像玩兒游戲一樣,利用強(qiáng)化學(xué)習(xí)技術(shù),通過嘗試生成不同的結(jié)果并對(duì)結(jié)果進(jìn)行評(píng)分,然后鼓勵(lì)評(píng)分高的策略、懲罰評(píng)分低的策略,最終獲得更好的模型。

不過說實(shí)話,我當(dāng)時(shí)并不看好這一技術(shù)路線,因?yàn)檫@仍然需要大量的人工勞動(dòng),本質(zhì)上還是一種“人工”智能。不過ChatGPT通過持續(xù)投入大量的人力,把這條路走通了,從而更進(jìn)一步驗(yàn)證了那句話,“有多少人工,就有多少智能”。

不過,需要注意的是,ChatGPT以及一系列超大規(guī)模預(yù)訓(xùn)練語言模型的成功將為自然語言處理帶來 新的范式變遷 ,即從以BERT為代表的 預(yù)訓(xùn)練+精調(diào) (Fine-tuning)范式,轉(zhuǎn)換為以GPT-3為代表的 預(yù)訓(xùn)練+提示 (Prompting)的范式[3]。所謂提示,指的是通過構(gòu)造自然語言提示符(Prompt),將下游任務(wù)轉(zhuǎn)化為預(yù)訓(xùn)練階段的語言模型任務(wù)。例如,若想識(shí)別句子“我喜歡這部電影。”的情感傾向性,可以在其后拼接提示符“它很 ”。如果預(yù)訓(xùn)練模型預(yù)測空格處為“精彩”,則句子大概率為褒義。這樣做的好處是無需精調(diào)整個(gè)預(yù)訓(xùn)練模型,就可以調(diào)動(dòng)模型內(nèi)部的知識(shí),完成“任意”的自然語言處理任務(wù)。當(dāng)然,在ChatGPT出現(xiàn)之前,這種范式轉(zhuǎn)變的趨勢并不明顯,主要有兩個(gè)原因:

第一,GPT-3級(jí)別的大模型基本都掌握在大公司手里,因此學(xué)術(shù)界在進(jìn)行預(yù)訓(xùn)練+提示的研究時(shí)基本都使用規(guī)模相對(duì)比較小的預(yù)訓(xùn)練模型。由于規(guī)模規(guī)模不夠大,因此預(yù)訓(xùn)練+提示的效果并不比預(yù)訓(xùn)練+精調(diào)的效果好。而只有當(dāng)模型的規(guī)模足夠大后,才會(huì)涌現(xiàn)(Emerge)出“智能”[4]。最終,導(dǎo)致之前很多在小規(guī)模模型上得出的結(jié)論,在大規(guī)模模型下都未必適用了。

第二,如果僅利用預(yù)訓(xùn)練+提示的方法,由于預(yù)訓(xùn)練的語言模型任務(wù)和下游任務(wù)之間差異較大,導(dǎo)致這種方法除了擅長續(xù)寫文本這種預(yù)訓(xùn)練任務(wù)外,對(duì)其他任務(wù)完成得并不好。因此,為了應(yīng)對(duì)更多的任務(wù),需要在下游任務(wù)上繼續(xù)預(yù)訓(xùn)練(也可以叫預(yù)精調(diào)),而且現(xiàn)在的趨勢是在眾多的下游任務(wù)上預(yù)精調(diào)大模型,以應(yīng)對(duì)多種、甚至未曾見過的新任務(wù)[5]。所以更準(zhǔn)確地說,預(yù)訓(xùn)練+預(yù)精調(diào)+提示將成為自然語言處理的新范式。

不同于傳統(tǒng)預(yù)訓(xùn)練+精調(diào)范式,預(yù)訓(xùn)練+預(yù)精調(diào)+提示范式將過去一個(gè)自然語言處理模型擅長處理一個(gè)具體任務(wù)的方式,轉(zhuǎn)換為了用一個(gè)模型處理多個(gè)任務(wù),甚至未曾見過的通用任務(wù)的方式。所以從這個(gè)角度來講,通用人工智能也許真的即將到來了。這似乎也和我?guī)啄昵暗念A(yù)測相吻合,我當(dāng)時(shí)曾預(yù)測,“結(jié)合自然語言處理歷次范式變遷的規(guī)律(圖1),2018年預(yù)訓(xùn)練+精調(diào)的范式出現(xiàn)之后5年,即2023年自然語言處理也許將迎來新的范式變遷”。

圖片

那么,接下來如何進(jìn)一步提升預(yù)訓(xùn)練+預(yù)精調(diào)+提示新范式的能力,并在實(shí)際應(yīng)用中將其落地呢?

首先,顯式地利用人工標(biāo)注和反饋仍然費(fèi)時(shí)費(fèi)力,我們應(yīng)該設(shè)法更自然地獲取并利用人類的反饋。也就是在實(shí)際應(yīng)用場景中,獲取真實(shí)用戶的自然反饋,如其回復(fù)的語句、所做的行為等,并利用這些反饋信息提升系統(tǒng)的性能,我們將這種方式稱為 交互式自然語言處理 。不過用戶的交互式反饋相對(duì)稀疏,并且有些用戶會(huì)做出惡意的反饋,如何克服稀疏性以及避免惡意性反饋都將是亟待解決的問題。

其次,目前該范式生成的自然語言文本具有非常好的流暢性,但是經(jīng)常會(huì)出現(xiàn)事實(shí)性錯(cuò)誤,也就是會(huì)一本正經(jīng)地胡說八道。當(dāng)然,使用上面的交互式自然語言處理方法可以一定程度上解決此類問題,不過對(duì)于用戶都不知道答案的問題,他們是無法對(duì)結(jié)果進(jìn)行反饋的。此時(shí)又回到了可解釋性差,這一深度學(xué)習(xí)模型的老問題上。如果能夠像寫論文時(shí)插入?yún)⒖嘉墨I(xiàn)一樣,在生成的結(jié)果中插入相關(guān)信息的出處,則會(huì)大大提高結(jié)果的可解釋性。

最后,該范式依賴超大規(guī)模預(yù)訓(xùn)練語言模型,然而這些模型目前只掌握在少數(shù)的大公司手中,即便有個(gè)別開源的大模型,由于其過于龐大,小型公司或研究組也無法下載并使用它們。所以,在線調(diào)用是目前使用這些模型最主要的模式。在該模式下,如何針對(duì)不同用戶面對(duì)的不同任務(wù),使用用戶私有的數(shù)據(jù)對(duì)模型進(jìn)行進(jìn)一步預(yù)精調(diào),并且不對(duì)公有的大模型造成影響,成為該范式實(shí)際應(yīng)用落地所迫切需要解決的問題。此外,為了提高系統(tǒng)的運(yùn)行速度,如何通過在線的大模型獲得離線的小模型,并且讓離線小模型保持大模型在某些任務(wù)上的能力,也成為模型能實(shí)際應(yīng)用的一種解決方案。

未來已來,讓我們共同期待!

注:有幸在車?yán)蠋煹呐笥讶W(xué)習(xí)到了他對(duì)于最近ChatGPT的一些見解,征得老師同意后分享給大家,轉(zhuǎn)載請(qǐng)注明作者。

參考文獻(xiàn):

[1] https://chat.openai.com/

[2] Long Ouyang, Jeff Wu, Xu Jiang, Diogo Almeida, Carroll L. Wainwright, Pamela Mishkin, Chong Zhang, Sandhini Agarwal, Katarina Slama, Alex Ray, John Schulman, Jacob Hilton, Fraser Kelton, Luke Miller, Maddie Simens, Amanda Askell, Peter Welinder, Paul Christiano, Jan Leike, Ryan Lowe. Training language models to follow instructions with human feedback. https://arxiv.org/abs/2203.02155

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • nlp
    nlp
    +關(guān)注

    關(guān)注

    1

    文章

    486

    瀏覽量

    21987
  • OpenAI
    +關(guān)注

    關(guān)注

    9

    文章

    1034

    瀏覽量

    6378
  • ChatGPT
    +關(guān)注

    關(guān)注

    29

    文章

    1547

    瀏覽量

    7362
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    python自然語言

    最近,python自然語言是越來越火了,那么什么是自然語言。自然語言(Natural Language )廣納了眾多技術(shù),對(duì)自然或人類語言進(jìn)
    發(fā)表于 05-02 13:50

    【推薦體驗(yàn)】騰訊云自然語言處理

    `相信大家對(duì)NLP自然語言處理的技術(shù)都不陌生,它是計(jì)算機(jī)科學(xué)領(lǐng)域和AI領(lǐng)域中的一個(gè)分支,它與計(jì)算機(jī)和人類之間使用自然語言進(jìn)行交互密切相關(guān),而NLP的最終目標(biāo)是使計(jì)算機(jī)能夠像人類一樣理解語言
    發(fā)表于 10-09 15:28

    自然語言處理的分詞方法

    自然語言處理——75 自動(dòng)分詞基本算法
    發(fā)表于 03-19 11:46

    自然語言處理語言模型

    自然語言處理——53 語言模型(數(shù)據(jù)平滑)
    發(fā)表于 04-16 11:11

    自然語言處理的詞性標(biāo)注方法

    自然語言處理——78 詞性標(biāo)注方法
    發(fā)表于 04-21 11:38

    自然語言處理筆記

    自然語言處理筆記9-哈工大 關(guān)毅
    發(fā)表于 06-04 16:34

    自然語言處理——總結(jié)、習(xí)題

    自然語言處理——79 總結(jié)、習(xí)題
    發(fā)表于 06-19 11:22

    什么是自然語言處理?

    會(huì)識(shí)別出我們正確說的話。 我們使用免費(fèi)服務(wù)將在線遇到的外語短語翻譯成英語, 有時(shí)它們可以為我們提供準(zhǔn)確的翻譯。 盡管自然語言處理取得了長足的進(jìn)步,但仍有很大的改進(jìn)空間。[理...
    發(fā)表于 07-23 10:22

    什么是自然語言處理

    什么是自然語言處理?自然語言處理任務(wù)有哪些?自然語言處理的方法是什么?
    發(fā)表于 09-08 06:51

    什么是自然語言處理_自然語言處理常用方法舉例說明

    自然語言處理是計(jì)算機(jī)科學(xué)領(lǐng)域與人工智能領(lǐng)域中的一個(gè)重要方向。它研究能實(shí)現(xiàn)人與計(jì)算機(jī)之間用自然語言進(jìn)行有效通信的各種理論和方法。自然語言處理
    發(fā)表于 12-28 16:56 ?1.8w次閱讀
    什么是<b class='flag-5'>自然語言</b><b class='flag-5'>處理</b>_<b class='flag-5'>自然語言</b><b class='flag-5'>處理</b>常用方法舉例說明

    自然語言處理怎么最快入門_自然語言處理知識(shí)了解

    自然語言處理就是實(shí)現(xiàn)人機(jī)間自然語言通信,實(shí)現(xiàn)自然語言理解和自然語言生成是十分困難的,造成困難的根本原因是
    發(fā)表于 12-28 17:10 ?5277次閱讀

    自然語言處理或?qū)⒂瓉硇碌?b class='flag-5'>范式變遷

    更好的回復(fù)。這一點(diǎn)上和OpenAI于今年3月份推出的InstructGPT[2]是一致的,即通過引入人工標(biāo)注和反饋,解決了自然語言生成結(jié)果不易評(píng)價(jià)的問題,從而就可以像玩兒游戲一樣,利用強(qiáng)化學(xué)習(xí)技術(shù),通過嘗試生成不同的結(jié)果并對(duì)結(jié)果進(jìn)行評(píng)分,然后鼓勵(lì)評(píng)分高的策略、懲罰評(píng)分低的策略,最終獲得更好的模型。
    的頭像 發(fā)表于 12-08 16:59 ?646次閱讀

    自然語言處理的概念和應(yīng)用 自然語言處理屬于人工智能嗎

      自然語言處理(Natural Language Processing)是一種人工智能技術(shù),它是研究自然語言與計(jì)算機(jī)之間的交互和通信的一門學(xué)科。自然語言
    發(fā)表于 08-23 17:31 ?1257次閱讀

    自然語言處理和人工智能的概念及發(fā)展史 自然語言處理和人工智能的區(qū)別

    自然語言處理(Natural Language Processing, NLP)的定義是通過電腦軟件程序?qū)崿F(xiàn)人們?nèi)粘?b class='flag-5'>語言的機(jī)器自動(dòng)處理。為了幫助計(jì)算機(jī)理解,掌握
    發(fā)表于 08-23 18:22 ?801次閱讀

    自然語言處理包括哪些內(nèi)容

    自然語言處理(Natural Language Processing,簡稱NLP)是人工智能領(lǐng)域的一個(gè)重要分支,它涉及到計(jì)算機(jī)與人類語言之間的交互。NLP的目標(biāo)是讓計(jì)算機(jī)能夠理解、生成和處理
    的頭像 發(fā)表于 07-03 14:15 ?678次閱讀