0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

關(guān)于“NLP中的遷移學(xué)習(xí)”的教程

DPVg_AI_era ? 來源:lq ? 2019-06-23 10:11 ? 次閱讀

近日,在美國明尼蘇達州明尼阿波利斯的NAACL2019上,Sebastian Ruder, Matthew Peters, Swabha Swayamdipta和Thomas Wolf分享了一個長達238頁PPT關(guān)于“NLP中的遷移學(xué)習(xí)”的教程,今天拿來和大家分享。

經(jīng)典的監(jiān)督機器學(xué)習(xí)范式是基于對使用單個數(shù)據(jù)集的任務(wù)的單個預(yù)測模型的孤立學(xué)習(xí)。這種方法需要大量的訓(xùn)練示例,并且對于定義明確、范圍狹窄的任務(wù)效果最好。遷移學(xué)習(xí)指的是一組方法,這些方法通過利用來自其他域或任務(wù)的數(shù)據(jù)來訓(xùn)練具有更好泛化特性的模型來擴展此方法。

近兩年來,自然語言處理(NLP)領(lǐng)域出現(xiàn)了幾種轉(zhuǎn)移學(xué)習(xí)方法和體系結(jié)構(gòu),這些方法和體系結(jié)構(gòu)大大提高了NLP任務(wù)的先進性。

這些改進,加上這些方法的廣泛可用性和易集成性,使人們想起了導(dǎo)致計算機視覺中預(yù)訓(xùn)練字嵌入和ImageNet預(yù)訓(xùn)練成功的因素,并表明這些方法很可能成為NLP中的一種常用工具以及一個重要的研究方向。

我們將概述NLP中的現(xiàn)代遷移學(xué)習(xí)方法,如何對模型進行預(yù)培訓(xùn),它們所學(xué)習(xí)的表示捕獲哪些信息,并回顧有關(guān)如何在下游NLP任務(wù)中集成和適應(yīng)這些模型的示例和案例研究。

什么是遷移學(xué)習(xí)?

(a)傳統(tǒng)機器學(xué)習(xí)的學(xué)習(xí)過程:

任務(wù)1:學(xué)習(xí)系統(tǒng)

任務(wù)2:學(xué)習(xí)系統(tǒng)

任務(wù)3:學(xué)習(xí)系統(tǒng)

(b)遷移學(xué)習(xí)的學(xué)習(xí)過程:

源任務(wù):知識

目標(biāo)任務(wù):學(xué)習(xí)系統(tǒng)

為什么是NLP遷移學(xué)習(xí)?

許多NLP任務(wù)都有共同的語言知識(例如語言表示、結(jié)構(gòu)相似性)

任務(wù)可以互相通知,例如語法和語義

注釋數(shù)據(jù)很少,盡可能多地利用監(jiān)督

從經(jīng)驗上講,遷移學(xué)習(xí)已經(jīng)在SOTA形成了許多被監(jiān)督的NLP任務(wù)(例如分類、信息提取、問答等)

為什么是NLP遷移學(xué)習(xí)?(憑經(jīng)驗)

在命名實體識別(NER)CONLL-2003(英語)上隨著時間推移的表現(xiàn)

NLP中遷移學(xué)習(xí)的類型

本教程到底講什么?

本教程講的是什么,不講的是什么:

目標(biāo):提供NLP中遷移方法的廣泛概述,重點介紹截至目前(2019年年中)最成功的經(jīng)驗方法。

提供實用的、實際操作的建議→在教程結(jié)束時,每個人都有能力將最新進展應(yīng)用到文本分類任務(wù)中。

不講的是什么:全面的(不可能在一個教程中涵蓋所有相關(guān)的論文?。?/p>

(Bender Rule: 本教程主要是針對用英語完成的工作,其他語言的可擴展性取決于監(jiān)督是否可用。)

框架:

1、介紹

2、預(yù)訓(xùn)練

3、代表中有什么?

4、適應(yīng)

5、下游

6、開放問題

順序遷移學(xué)習(xí)

了解一個任務(wù)/數(shù)據(jù)集,然后遷移到另一個任務(wù)/數(shù)據(jù)集

預(yù)訓(xùn)練:

word2vec

GloVe

skip-thought

InferSent

ELMo

ULMFiT

GPT

BERT

適應(yīng):

分類

序列標(biāo)記

問答

預(yù)培訓(xùn)任務(wù)和數(shù)據(jù)集

未標(biāo)記數(shù)據(jù)和自我監(jiān)督:

易于收集的大型語料庫:維基百科、新聞、網(wǎng)絡(luò)爬蟲、社交媒體等。

訓(xùn)練利用了分布假設(shè):“你應(yīng)該知道它所保存的一個詞”(Firth,1957),通常形式化為訓(xùn)練某種語言模型的變體。

注重高效算法利用豐富的數(shù)據(jù)

監(jiān)督預(yù)培訓(xùn):

在視覺上非常常見,由于缺乏大的監(jiān)控數(shù)據(jù)集,在NLP中較少見。

機器翻譯

句子表達的NLI

從一個問答數(shù)據(jù)集到另一個問答數(shù)據(jù)集的任務(wù)特定傳輸

目標(biāo)任務(wù)和數(shù)據(jù)集

目標(biāo)任務(wù)通常是受監(jiān)控的,跨越一系列常見的NLP任務(wù):

句子或文檔分類(如情感)

句子對分類(如NLI、釋義)

字級(例如序列標(biāo)記、提取性問答)

結(jié)構(gòu)化預(yù)測(如解析)

生成(例如對話、總結(jié))

具體示例——詞向量

單詞嵌入方法(例如word2vec)每個單詞學(xué)習(xí)一個向量

主題:從單詞到語境中的單詞

主題:從單詞到語境中的單詞

詞向量 句子/doc向量 語境中詞向量

主題:LM預(yù)訓(xùn)練

許多成功的預(yù)培訓(xùn)方法都是基于語言建模的

非正式地,LM學(xué)習(xí)p(文本)或p(文本/其他文本)

不需要人工注釋

許多語言有足夠的文本來學(xué)習(xí)大容量模型

多才多藝,能學(xué)習(xí)句子和詞的表達,具有多種客觀功能

主題:由淺入深

1層 24層

主題:預(yù)培訓(xùn)與目標(biāo)任務(wù)

預(yù)培訓(xùn)和目標(biāo)任務(wù)的選擇是耦合

句子/文檔表示法對單詞級預(yù)測無效

詞向量可以跨上下文匯集,但通常比其他方法更好。

在語境詞向量中,雙向語境很重要

一般來說:

類似的預(yù)培訓(xùn)和目標(biāo)任務(wù)→最佳結(jié)果

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • nlp
    nlp
    +關(guān)注

    關(guān)注

    1

    文章

    481

    瀏覽量

    21935
  • 遷移學(xué)習(xí)
    +關(guān)注

    關(guān)注

    0

    文章

    74

    瀏覽量

    5536

原文標(biāo)題:【干貨】NLP中的遷移學(xué)習(xí)教程來啦!(238頁PPT下載)

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    基于稀疏編碼的遷移學(xué)習(xí)及其在行人檢測的應(yīng)用

    一定進展,但大都需要大量的訓(xùn)練數(shù)據(jù).針對這一問題,提出了一種基于遷移學(xué)習(xí)的半監(jiān)督行人分類方法:首先基于稀疏編碼,從任意的未標(biāo)記樣本,學(xué)習(xí)到一個緊湊、有效的特征表示;然后通過
    發(fā)表于 04-24 09:48

    遷移學(xué)習(xí)

    PDA、Source-Free DA上的應(yīng)用。六、遷移學(xué)習(xí)前沿應(yīng)用遷移學(xué)習(xí)在語義分割的應(yīng)用遷移
    發(fā)表于 04-21 15:15

    專欄 | 深度學(xué)習(xí)NLP的運用?從分詞、詞性到機器翻譯、對話系統(tǒng)

    從分詞、詞性等基礎(chǔ)模塊,到機器翻譯、知識問答等領(lǐng)域,本文列舉并分析一些深度學(xué)習(xí)NLP 領(lǐng)域的具體運用,希望對大家研究深度學(xué)習(xí)NLP 有所幫助。
    的頭像 發(fā)表于 08-18 17:06 ?7471次閱讀
    專欄 | 深度<b class='flag-5'>學(xué)習(xí)</b>在<b class='flag-5'>NLP</b><b class='flag-5'>中</b>的運用?從分詞、詞性到機器翻譯、對話系統(tǒng)

    對2017年NLP領(lǐng)域中深度學(xué)習(xí)技術(shù)應(yīng)用的總結(jié)

    本文作者Javier Couto是tryo labs公司的一名研發(fā)科學(xué)家,專注于NLP技術(shù)。這篇文章是他對2017年NLP領(lǐng)域中深度學(xué)習(xí)技術(shù)應(yīng)用的總結(jié),也許并不全面,但都是他認(rèn)為有價值、有意義的成果。Couto表示,2017年是
    的頭像 發(fā)表于 12-28 10:02 ?5536次閱讀
    對2017年<b class='flag-5'>NLP</b>領(lǐng)域中深度<b class='flag-5'>學(xué)習(xí)</b>技術(shù)應(yīng)用的總結(jié)

    NLP的介紹和如何利用機器學(xué)習(xí)進行NLP以及三種NLP技術(shù)的詳細(xì)介紹

    本文用簡潔易懂的語言,講述了自然語言處理(NLP)的前世今生。從什么是NLP到為什么要學(xué)習(xí)NLP,再到如何利用機器學(xué)習(xí)進行
    的頭像 發(fā)表于 06-10 10:26 ?7.7w次閱讀
    <b class='flag-5'>NLP</b>的介紹和如何利用機器<b class='flag-5'>學(xué)習(xí)</b>進行<b class='flag-5'>NLP</b>以及三種<b class='flag-5'>NLP</b>技術(shù)的詳細(xì)介紹

    面向NLP任務(wù)的遷移學(xué)習(xí)新模型ULMFit

    除了能夠更快地進行訓(xùn)練之外,遷移學(xué)習(xí)也是特別有趣的,僅在最后一層進行訓(xùn)練,讓我們可以僅僅使用較少的標(biāo)記數(shù)據(jù),而對整個模型進行端對端訓(xùn)練則需要龐大的數(shù)據(jù)集。標(biāo)記數(shù)據(jù)的成本很高,在無需大型數(shù)據(jù)集的情況下建立高質(zhì)量的模型是很可取的方法。
    的頭像 發(fā)表于 08-22 08:11 ?5554次閱讀

    NLP的深度學(xué)習(xí)技術(shù)概述

    該項目是對基于深度學(xué)習(xí)的自然語言處理(NLP)的概述,包括用來解決不同 NLP 任務(wù)和應(yīng)用的深度學(xué)習(xí)模型(如循環(huán)神經(jīng)網(wǎng)絡(luò)、卷積神經(jīng)網(wǎng)絡(luò)和強化學(xué)習(xí)
    的頭像 發(fā)表于 03-01 09:13 ?4673次閱讀
    <b class='flag-5'>NLP</b><b class='flag-5'>中</b>的深度<b class='flag-5'>學(xué)習(xí)</b>技術(shù)概述

    遷移學(xué)習(xí)與模型預(yù)訓(xùn)練:何去何從

    把我們當(dāng)前要處理的NLP任務(wù)叫做T(T稱為目標(biāo)任務(wù)),遷移學(xué)習(xí)技術(shù)做的事是利用另一個任務(wù)S(S稱為源任務(wù))來提升任務(wù)T的效果,也即把S的信息遷移到T
    的頭像 發(fā)表于 07-18 11:29 ?7739次閱讀
    <b class='flag-5'>遷移</b><b class='flag-5'>學(xué)習(xí)</b>與模型預(yù)訓(xùn)練:何去何從

    NLP遷移學(xué)習(xí)面臨的問題和解決

    自然語言處理(NLP)最近取得了巨大的進步,每隔幾天就會發(fā)布最新的結(jié)果。排行榜瘋狂是指最常見的NLP基準(zhǔn),如GLUE和SUPERGLUE,它們的得分越來越接近人類的水平。這些結(jié)果大多是通過超大(數(shù)十億個參數(shù))模型從大規(guī)模數(shù)據(jù)集中遷移
    的頭像 發(fā)表于 05-04 12:03 ?3045次閱讀
    <b class='flag-5'>NLP</b><b class='flag-5'>遷移</b><b class='flag-5'>學(xué)習(xí)</b>面臨的問題和解決

    NLP 2019 Highlights 給NLP從業(yè)者的一個參考

    自然語言處理專家elvis在medium博客上發(fā)表了關(guān)于NLP在2019年的亮點總結(jié)。對于自然語言處理(NLP)領(lǐng)域而言,2019年是令人印象深刻的一年。在這篇博客文章,我想重點介紹
    的頭像 發(fā)表于 09-25 16:56 ?1629次閱讀

    遷移學(xué)習(xí)的意圖識別在口語理解的應(yīng)用

    獲得大量數(shù)據(jù),因此為搭建新領(lǐng)域的深度學(xué)習(xí)模型提出了挑戰(zhàn)。遷移學(xué)習(xí)是深度學(xué)習(xí)的一種特殊應(yīng)用,在遷移學(xué)習(xí)
    發(fā)表于 04-12 11:18 ?4次下載
    <b class='flag-5'>遷移</b><b class='flag-5'>學(xué)習(xí)</b>的意圖識別在口語理解<b class='flag-5'>中</b>的應(yīng)用

    遷移學(xué)習(xí)Finetune的四種類型招式

    遷移學(xué)習(xí)方法。例如NLP的預(yù)訓(xùn)練Bert模型,通過在下游任務(wù)上Finetune即可取得比直接使用下游數(shù)據(jù)任務(wù)從零訓(xùn)練的效果要好得多。
    的頭像 發(fā)表于 04-02 17:35 ?2970次閱讀

    NLP遷移學(xué)習(xí):利用預(yù)訓(xùn)練模型進行文本分類

    遷移學(xué)習(xí)徹底改變了自然語言處理(NLP)領(lǐng)域,允許從業(yè)者利用預(yù)先訓(xùn)練的模型來完成自己的任務(wù),從而大大減少了訓(xùn)練時間和計算資源。在本文中,我們將討論遷移
    發(fā)表于 06-14 09:30 ?384次閱讀

    一文詳解遷移學(xué)習(xí)

    遷移學(xué)習(xí)需要將預(yù)訓(xùn)練好的模型適應(yīng)新的下游任務(wù)。然而,作者觀察到,當(dāng)前的遷移學(xué)習(xí)方法通常無法關(guān)注與任務(wù)相關(guān)的特征。在這項工作,作者探索了重新
    的頭像 發(fā)表于 08-11 16:56 ?5930次閱讀
    一文詳解<b class='flag-5'>遷移</b><b class='flag-5'>學(xué)習(xí)</b>

    深度學(xué)習(xí)nlp的區(qū)別在哪

    深度學(xué)習(xí)和自然語言處理(NLP)是計算機科學(xué)領(lǐng)域中兩個非常重要的研究方向。它們之間既有聯(lián)系,也有區(qū)別。本文將介紹深度學(xué)習(xí)NLP的區(qū)別。 深度學(xué)習(xí)
    的頭像 發(fā)表于 07-05 09:47 ?490次閱讀