0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

Prompt范式你們了解多少

深度學習自然語言處理 ? 來源:李rumor ? 作者:rumor ? 2021-09-10 10:22 ? 次閱讀

卷友們好,我是rumor。

之前我學習Prompt范式的源起PET后就鴿了很久,相信卷友們已經把Prompt的論文都追完了,把我遠遠地落在了后面。周末我不甘被卷,奮起直追,連刷三篇paper,希望能趕上大家學習的步伐。

Prefix-tuning- Optimizing continuous prompts for generation

P-tuning-GPT Understands, Too

Prompt-tuning-The Power of Scale for Parameter-Efficient Prompt Tuning

自動化Prompt

Prompt范式的第一個階段,就是在輸入上加Prompt文本,再對輸出進行映射。但這種方式怎么想都不是很優(yōu)雅,無法避免人工的介入。即使有方法可以批量挖掘,但也有些復雜(有這個功夫能標不少高質量語料),而且模型畢竟是黑盒,對離散文本輸入的魯棒性很差:

323a6c1c-112f-11ec-8fb8-12bb97331649.jpg

怎么辦呢?離散的不行,那就連續(xù)的唄

用固定的token代替prompt,拼接上文本輸入,當成特殊的embedding輸入,這樣在訓練時也可以對prompt進行優(yōu)化,就減小了prompt挖掘、選擇的成本。

如何加入Prompt

前面的想法非常單純,但實際操作起來還是需要些技巧的。

Prefix-tuning

Prefix-tuning是做生成任務,它根據不同的模型結構定義了不同的Prompt拼接方式,在GPT類的自回歸模型上采用[PREFIX, x, y],在T5類的encoder-decoder模型上采用[PREFIX, x, PREFIX‘, y]:

3246ea32-112f-11ec-8fb8-12bb97331649.jpg

值得注意的還有三個改動:

把預訓練大模型freeze住,因為大模型參數量大,精調起來效率低,畢竟prompt的出現(xiàn)就是要解決大模型少樣本的適配

作者發(fā)現(xiàn)直接優(yōu)化Prompt參數不太穩(wěn)定,加了個更大的MLP,訓練完只保存MLP變換后的參數就行了

實驗證實只加到embedding上的效果不太好,因此作者在每層都加了prompt的參數,改動較大

P-tuning

P-tuning是稍晚些的工作,主要針對NLU任務。對于BERT類雙向語言模型采用模版(P1, x, P2, [MASK], P3),對于單向語言模型采用(P1, x, P2, [MASK]):

3254d11a-112f-11ec-8fb8-12bb97331649.jpg

同時加了兩個改動:

考慮到預訓練模型本身的embedding就比較離散了(隨機初始化+梯度傳回來小,最后只是小范圍優(yōu)化),同時prompt本身也是互相關聯(lián)的,所以作者先用LSTM對prompt進行編碼

在輸入上加入了anchor,比如對于RTE任務,加上一個問號變成[PRE][prompt tokens][HYP]?[prompt tokens][MASK]后效果會更好

P-tuning的效果很好,之前的Prompt模型都是主打小樣本效果,而P-tuning終于在整個數據集上超越了精調的效果:

32612dde-112f-11ec-8fb8-12bb97331649.jpg

雖然P-tuning效果好,但實驗對比也有些問題,它沒有freeze大模型,而是一起精調的,相當于引入了額外的輸入特征,而平時我們在輸入加個詞法句法信息也會有提升,所以不能完全肯定這個效果是prompt帶來的。同時隨著模型尺寸增大,精調也會更難。

Prompt-tuning

Prompt-tuning就更加有信服力一些,純憑Prompt撬動了大模型。

Prompt-tuning給每個任務定義了自己的Prompt,拼接到數據上作為輸入,同時freeze預訓練模型進行訓練,在沒有加額外層的情況下,可以看到隨著模型體積增大效果越來越好,最終追上了精調的效果:

326f312c-112f-11ec-8fb8-12bb97331649.jpg

同時,Prompt-tuning還提出了Prompt-ensembling,也就是在一個batch里同時訓練同一個任務的不同prompt,這樣相當于訓練了不同「模型」,比模型集成的成本小多了。

其他Trick

除了怎么加Prompt之外,Prompt向量的初始化和長度也有所講究。

Prompt初始化

Prefix-tuning采用了任務相關的文字進行初始化,而Prompt-tuning發(fā)現(xiàn)在NLU任務上用label文本初始化效果更好。不過隨著模型尺寸的提升,這種gap也會最終消失。

3285c892-112f-11ec-8fb8-12bb97331649.jpg

Prompt長度

從Prompt-tuning的實驗可以看到,長度在10-20時的表現(xiàn)已經不錯了,同時這個gap也會隨著模型尺寸的提升而減小。

329143c0-112f-11ec-8fb8-12bb97331649.jpg

總結

要說上次看PET時我對Prompt范式還是將信將疑,看完這幾篇之后就比較認可了。尤其是Prompt-tuning的一系列實驗,確實證明了增加少量可調節(jié)參數可以很好地運用大模型,并且模型能力越強,所需要的prompt人工調參就越少。

這種參數化Prompt的方法除了避免「人工」智能外,還有一方面就是省去了Y的映射。因為在精調的過程中,模型的輸出就被拿捏死了,而且Prompt-tuning還用label初始化Prompt,更加讓模型知道要輸出啥。

Finally,終于追上了前沿,大家的鬼點子可真多啊。

來源:李rumor

編輯:jq

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • PET
    PET
    +關注

    關注

    1

    文章

    43

    瀏覽量

    18664
  • MLPM
    +關注

    關注

    0

    文章

    2

    瀏覽量

    6795
  • prompt
    +關注

    關注

    0

    文章

    13

    瀏覽量

    2653

原文標題:Prompt范式,真香

文章出處:【微信號:zenRRan,微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    PPEC:零成本技術交底,賦能電源開發(fā)新范式

    。二、電源開發(fā)方案合作 PPEC電源開發(fā)模式:基于客戶需求進行樣機研發(fā),并交付全套開發(fā)生產技術資料,研發(fā)費用可抵PPEC芯片貨款,實現(xiàn)“0“成本技術交底,賦能電源開發(fā)新范式。▍客戶需求:客戶提出需求
    發(fā)表于 09-06 19:06

    MEMS諧振傳感器新范式:熱噪聲驅動的傳感器的可行性與動態(tài)檢測性能

    resonant sensors”的研究論文,提出了一種新的微納諧振傳感器范式——熱噪聲驅動的諧振傳感器, 構建了該范式下傳感器信噪比、動態(tài)范圍與頻率穩(wěn)定性等性能指標的理論框架,并實驗驗證了熱噪聲驅動的傳感器的可行性與動態(tài)檢測性能,為納米尺度下可在室溫和常壓下工作、更簡
    的頭像 發(fā)表于 06-29 10:57 ?3917次閱讀
    MEMS諧振傳感器新<b class='flag-5'>范式</b>:熱噪聲驅動的傳感器的可行性與動態(tài)檢測性能

    esp32 console顯示丟失第一個字符的原因?

    uart_config = ESP_CONSOLE_DEV_UART_CONFIG_DEFAULT(); /* Prompt to be printed before each line. * This can
    發(fā)表于 06-19 07:49

    以守為攻,零信任安全防護能力的新范式

    (Zero Trust Security)被提出,并逐漸成為提升網絡安全防護能力的新范式。本文主要探討攻擊路徑的演變、零信任體系在各個階段的防護作用,并探討零信任體系未來可能的發(fā)展方向。 攻擊路徑 攻擊路徑是指攻擊者利用一系列的步驟和方法,在
    的頭像 發(fā)表于 05-27 10:18 ?676次閱讀
    以守為攻,零信任安全防護能力的新<b class='flag-5'>范式</b>

    你們能用定時器能達到1us的精度嗎?

    你們能用定時器能達到1us的精度么
    發(fā)表于 05-16 07:19

    鴻蒙ArkUI:【從代碼到UI顯示的整體渲染流程】

    方舟開發(fā)框架(簡稱ArkUI)是鴻蒙開發(fā)的UI框架,提供如下兩種開發(fā)范式,我們 **只學聲明式開發(fā)范式**
    的頭像 發(fā)表于 05-13 16:06 ?598次閱讀
    鴻蒙ArkUI:【從代碼到UI顯示的整體渲染流程】

    STM8L151G6串口進不了中斷的原因?

    (); __enable_interrupt();//**************開總中斷 while (1) { /*Prompt_Tone(4); delay_ms(500); Prompt_Tone(0
    發(fā)表于 04-30 07:48

    150年創(chuàng)新不止 A.O.史密斯展現(xiàn)未來智能家居新范式

    好水,樂享健康生活"理念震撼亮相N4館。從智慧五恒系統(tǒng)到好風好水健康廚房,從150年旗艦/經典系列再到旗下年輕時尚品牌佳尼特……A.O.史密斯自主開發(fā)的"高端智慧互聯(lián)一站式好風好水解決方案"奪人眼球、人氣爆棚,為在場觀眾清晰勾勒出了未來智能家居的新范式。 ? 智慧五恒
    的頭像 發(fā)表于 04-24 23:32 ?200次閱讀

    復盤與分析:Sora是如何成功的?

    從技術路線看,依舊遵從LLM范式“大力出奇跡”,通過patches向量化與transformer架構結合,使得訓練數據能夠使用大小、尺寸、分辨率不同的視頻,能夠讓模型學習到視頻的規(guī)律乃至世界的規(guī)律;使用GPT生成prompt,在訓練和推理過程中解決了模態(tài)之間的對齊問題,大
    的頭像 發(fā)表于 02-25 16:44 ?448次閱讀
    復盤與分析:Sora是如何成功的?

    如何從訓練集中生成候選prompt 三種生成候選prompt的方式

    這個“gradient”怎么得到的了呢,這是個啥玩意,怎么還有梯度?注意,注意。人家是帶引號的!比喻成梯度。這玩意有什么用呢。 文章指出給定一批error samples(當前prompt無法
    的頭像 發(fā)表于 01-12 11:29 ?726次閱讀
    如何從訓練集中生成候選<b class='flag-5'>prompt</b> 三種生成候選<b class='flag-5'>prompt</b>的方式

    了解PWM“死區(qū)”嗎?

    了解PWM“死區(qū)”嗎?
    的頭像 發(fā)表于 11-24 16:47 ?826次閱讀
    你<b class='flag-5'>了解</b>PWM“死區(qū)”嗎?

    workflow異步任務調度編程范式

    ,workflow是一個異步任務調度編程范式,封裝了6種異步資源:CPU計算、GPU計算、網絡、磁盤I/O、定時器、計數器,以回調函數模式提供給用戶使用,概括起來實際上主要是兩個功能:1、屏蔽阻塞調用的影響,使阻塞調用的開發(fā)接口變?yōu)楫惒降?,充分利用計算資
    的頭像 發(fā)表于 11-09 09:42 ?386次閱讀
    workflow異步任務調度編程<b class='flag-5'>范式</b>

    你們正點原子的mini四軸飛行器的控制器是多少位的?

    你們正點原子的mini四軸飛行器的控制器是多少位的
    發(fā)表于 11-08 07:40

    FPC阻抗你們用什么軟件模擬呀

    FPC阻抗你們用什么軟件模擬呀,比如25um的PI,銅厚12um,線寬0.1和0.12mm,阻抗相差多少
    發(fā)表于 11-03 19:36

    2023 CCF中國開源大會「開放科學——引領未來科學研究發(fā)展的新范式分論壇」成功舉辦

    10月22日,由開放原子開源基金會和CCF開源戰(zhàn)略工作組聯(lián)合出品,2023 CCF中國開源大會「開放科學——引領未來科學研究發(fā)展的新范式分論壇」圓滿舉行。本次論壇旨在探討開放科學與開源在不同領域
    的頭像 發(fā)表于 10-24 10:20 ?444次閱讀