0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

萬能的prompt還能做可控文本生成

深度學(xué)習(xí)自然語言處理 ? 來源:夕小瑤的賣萌屋 ? 作者:ZenMoore ? 2022-03-22 10:54 ? 次閱讀

可控文本生成,旨在讓語言模型的輸出帶有我們想要的某種屬性。比如情感、主題、三元組等。一般我們習(xí)慣采用 CTRL[1] 或者 PPLM[2] 等方式。但是,CTRL 是對整個語言模型進行 Finetuning, PPLM 因為需要在生成的過程中迭代更新 hidden activations,所以推理速度非常慢。

隨著 Prompting 技術(shù)的大火,我們一直在思考,Prompt 究竟能夠帶來什么?我們都說,Prompt 本質(zhì)上是一種激發(fā)語言模型中知識的手段。因此,它應(yīng)該不僅僅局限于數(shù)據(jù)集或者說任務(wù)的層面,激發(fā)模型對于某個任務(wù)的“知識”,還應(yīng)該擴展到范圍更廣的控制屬性層面,激發(fā)模型對于某種輸出屬性的 sense !

于是,我們不妨把視角從 task scaling 挪開,更多地關(guān)注一下 Prompt 對于可控性的 buff 加成。

今天的這篇文章來自 UCSB 和微軟,提出通過對比學(xué)習(xí)的方法找尋到了這個 buff 一般的 Prompt,能夠“調(diào)教”我們的語言模型進行可控的生成。

論文標(biāo)題:
Controllable Natural Language Generation with Contrastive Prefixes

論文作者:
Jing Qian, Li Dong, Yelong Shen, Furu Wei, Weizhu Chen

論文鏈接:
https://arxiv.org/abs/2202.13257

模型方法

首先明確一個概念:Prefix。讀者可以簡單看一下 Prefix-Tuning[3] 的方法圖,就大概知道:Prefix 相當(dāng)于一種控制指令,加在輸入的最前面,以控制生成文本的屬性。

cf491344-a8da-11ec-952b-dac502259ad0.png

本文提出了兩種方法,分別是監(jiān)督方法和無監(jiān)督方法。

下面的方法介紹以 Sentiment Control 為例(即生成給定帶有情感的文本)。該任務(wù)要訓(xùn)練的,正是 positive 和 negative 的兩種情感類別所對應(yīng)的 prefix.

監(jiān)督方法

cf68b528-a8da-11ec-952b-dac502259ad0.png

整個訓(xùn)練過程和 Prefix-Tuning[3] 相似,LM 的參數(shù)是凍結(jié)的,只調(diào)整 Prefix 相關(guān)聯(lián)的參數(shù)。在訓(xùn)練的時候,除了LM loss 之外,新增一個判別損失:

其中, 代表生成文本, 代表控制信號的類別(positive 或 negative)。

無監(jiān)督方法

在監(jiān)督方法中,控制信號是已知的。實際場景中還會常常出現(xiàn)控制信號未知的情況,因此需要通過變分的無監(jiān)督方法找到這個“虛擬的類別信號“并使用 latent variable 表征,即 VQ-VAE[4] 的思想。

cf9bff00-a8da-11ec-952b-dac502259ad0.png

如圖,需要先通過一個 encoder 預(yù)測相應(yīng)輸入對應(yīng)的 latent variable 作為 prefix index(指代當(dāng)前要使用哪個 prefix)。設(shè) prefix index 為 ,則這個 encoder 就是要學(xué)習(xí) 這個分布。

一方面,除了 LM loss ,還需要保證后驗概率 或 盡可能的準(zhǔn)確,故引入 KL 散度:

這里的 假設(shè)是 uniform distribution。其中,

GS 表示 Gumbel Softmax, 是 GS 的 temperature 參數(shù)。

關(guān)于這塊兒的詳細原理,就是我們小學(xué)二年級就學(xué)過的 EM 算法啦~

幫讀者回憶一下:

......

另外,作者又提出了一個無監(jiān)督對比損失:其中, 和 是根據(jù) decoder 的文本生成概率得到的,具體計算方式如下:

最后總的損失函數(shù)為 ,, 的加權(quán)求和,

實驗結(jié)果

Sentiment Control

cfb4baae-a8da-11ec-952b-dac502259ad0.png

Detoxification

cfd7c936-a8da-11ec-952b-dac502259ad0.png

Topic Control

d006265a-a8da-11ec-952b-dac502259ad0.png

推理速度

d036c26a-a8da-11ec-952b-dac502259ad0.png

Multi-Aspect Control

實際場景中,很少有 multi-aspect labeled data,只有 single-aspect labeled data.

本文使用了兩種方式來解決多種屬性的可控生成問題:

Ours (concatenation):使用 single-aspect labeled data 分別訓(xùn)練各自的 prefix, 然后在 multi-aspect control 任務(wù)中將其拼接起來。

Ours (semi-supervised):同時訓(xùn)練 multi-aspect prefixes, 在訓(xùn)練時把 single-aspect labeled example 當(dāng)做 partially labeled. 此外,multi-aspect prefixes 經(jīng)過了 trained single-aspect prefixes 的初始化。

Ours (semi-supervised) 是上述監(jiān)督方法和無監(jiān)督方法的組合,因此架構(gòu)圖和無監(jiān)督方法的圖是一樣的。

d04eca36-a8da-11ec-952b-dac502259ad0.png

寫在最后

這里也推薦讀者品讀一下 DeepMind & ICL 的相似工作:Control Prefixes [5].

古人云:“君子生非異也,善假于物也”。我們把語言模型比作“人”,把可控性比作“物”,也許,大大小小的語言模型在能力的本質(zhì)上并沒有什么不同,但是如果可以通過不同的 Control Prefixes,假之以物,則語言模型可成“君子”也!(哈哈,搞一個俏皮的比喻~)

無論是本文介紹的 Contrastive Prefixes 也好,還是 Control Prefixes 也好,我們都可以從中發(fā)現(xiàn) Prompt 對于”調(diào)教“語言模型的偉大能力。從 task 到 controllability, 可能會是 prompt 向前發(fā)展的又一個新階段吧~

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 語言模型
    +關(guān)注

    關(guān)注

    0

    文章

    502

    瀏覽量

    10237
  • prompt
    +關(guān)注

    關(guān)注

    0

    文章

    14

    瀏覽量

    2662

原文標(biāo)題:搭配對比學(xué)習(xí),萬能的 prompt 還能做可控文本生成

文章出處:【微信號:zenRRan,微信公眾號:深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    電子萬能試驗機與液壓萬能試驗機的區(qū)別

      電子萬能材料試驗機主要采用伺服電機作為動力源,絲杠、絲母作為執(zhí)行部件,實現(xiàn)試驗機移動橫梁的速度控制。在傳動控制上,目前主要有兩種形式,同步帶 和減速機。國內(nèi)來說,長春地區(qū)的試驗機廠家多采用同步帶
    發(fā)表于 07-04 16:06

    中星微萬能驅(qū)動下載

    中星微萬能驅(qū)動下載
    發(fā)表于 01-11 23:02 ?19次下載
    中星微<b class='flag-5'>萬能</b>驅(qū)動下載

    winxp萬能聲卡驅(qū)動,程序下載

    winxp萬能聲卡驅(qū)動 尊敬的用戶,本萬能驅(qū)
    發(fā)表于 04-21 19:23 ?538次下載
    winxp<b class='flag-5'>萬能</b>聲卡驅(qū)動,程序下載

    萬能遙控器設(shè)置方法_萬能遙控器代碼

    電視是每個家庭必不可少的家用電器,所以我們在使用遙控器的時間也會比較多。但如果遙控器換了怎么辦,很多人都會想到配一個萬能遙控器,那么萬能遙控器怎么設(shè)置,它的萬能
    發(fā)表于 09-14 18:08 ?18.8w次閱讀
    <b class='flag-5'>萬能</b>遙控器設(shè)置方法_<b class='flag-5'>萬能</b>遙控器代碼

    萬能鑰匙字典生成工具.exe

    電子發(fā)燒友網(wǎng)站提供《萬能鑰匙字典生成工具.exe.exe》資料免費下載
    發(fā)表于 04-09 19:43 ?4次下載

    萬能協(xié)議通信工具

    萬能協(xié)議通信工具分享
    發(fā)表于 11-18 11:47 ?14次下載

    萬能轉(zhuǎn)換開關(guān)原理_萬能轉(zhuǎn)換開關(guān)結(jié)構(gòu)

    本文首先闡述了萬能轉(zhuǎn)換開關(guān)原理,其次介紹了萬能轉(zhuǎn)換開關(guān)技術(shù)特點,最后介紹了萬能轉(zhuǎn)換開關(guān)結(jié)構(gòu)。
    發(fā)表于 12-09 10:16 ?9744次閱讀

    萬能轉(zhuǎn)換開關(guān)選型_萬能轉(zhuǎn)換開關(guān)使用

    本文主要介紹了萬能轉(zhuǎn)換開關(guān)選型方法及萬能轉(zhuǎn)換開關(guān)的使用。
    發(fā)表于 12-09 10:30 ?4068次閱讀

    文本生成任務(wù)中引入編輯方法的文本生成

    4. FELIX FELIX是Google Research在“FELIX: Flexible Text Editing Through Tagging and Insertion”一文中提出的文本生成
    的頭像 發(fā)表于 07-23 16:56 ?1693次閱讀
    <b class='flag-5'>文本生成</b>任務(wù)中引入編輯方法的<b class='flag-5'>文本生成</b>

    受控文本生成模型的一般架構(gòu)及故事生成任務(wù)等方面的具體應(yīng)用

    來自:哈工大訊飛聯(lián)合實驗室 本期導(dǎo)讀:本文是對受控文本生成任務(wù)的一個簡單的介紹。首先,本文介紹了受控文本生成模型的一般架構(gòu),點明了受控文本生成模型的特點。然后,本文介紹了受控文本生成
    的頭像 發(fā)表于 10-13 09:46 ?3460次閱讀
    受控<b class='flag-5'>文本生成</b>模型的一般架構(gòu)及故事<b class='flag-5'>生成</b>任務(wù)等方面的具體應(yīng)用

    基于GPT-2進行文本生成

    文本生成是自然語言處理中一個重要的研究領(lǐng)域,具有廣闊的應(yīng)用前景。國內(nèi)外已經(jīng)有諸如Automated Insights、Narrative Science以及“小南”機器人和“小明”機器人等文本生成
    的頭像 發(fā)表于 04-13 08:35 ?4679次閱讀

    基于VQVAE的長文本生成 利用離散code來建模文本篇章結(jié)構(gòu)的方法

    寫在前面 近年來,多個大規(guī)模預(yù)訓(xùn)練語言模型 GPT、BART、T5 等被提出,這些預(yù)訓(xùn)練模型在自動文摘等多個文本生成任務(wù)上顯著優(yōu)于非預(yù)訓(xùn)練語言模型。但對于開放式生成任務(wù),如故事生成、新聞生成
    的頭像 發(fā)表于 12-01 17:07 ?1625次閱讀

    基于文本到圖像模型的可控文本到視頻生成

    文本到視頻模型需要大量高質(zhì)量的視頻和計算資源,這限制了相關(guān)社區(qū)進一步的研究和應(yīng)用。為了減少過度的訓(xùn)練要求,我們研究了一種新的高效形式:基于文本到圖像模型的可控文本到視頻
    的頭像 發(fā)表于 06-14 10:39 ?900次閱讀
    基于<b class='flag-5'>文本</b>到圖像模型的<b class='flag-5'>可控</b><b class='flag-5'>文本</b>到視頻<b class='flag-5'>生成</b>

    面向結(jié)構(gòu)化數(shù)據(jù)的文本生成技術(shù)研究

    今天我們要講的文本生成是現(xiàn)在最流行的研究領(lǐng)域之一。文本生成的目標(biāo)是讓計算機像人類一樣學(xué)會表達,目前看基本上接近實現(xiàn)。這些突然的技術(shù)涌現(xiàn),使得計算機能夠撰寫出高質(zhì)量的自然文本,滿足特定的需求。
    的頭像 發(fā)表于 06-26 14:39 ?565次閱讀
    面向結(jié)構(gòu)化數(shù)據(jù)的<b class='flag-5'>文本生成</b>技術(shù)研究

    如何使用 Llama 3 進行文本生成

    使用LLaMA 3(Large Language Model Family of AI Alignment)進行文本生成,可以通過以下幾種方式實現(xiàn),取決于你是否愿意在本地運行模型或者使用現(xiàn)成的API
    的頭像 發(fā)表于 10-27 14:21 ?199次閱讀