0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

從淺入深學(xué)習(xí)Transformer的資料匯總

深度學(xué)習(xí)自然語言處理 ? 來源:AI公園 ? 作者:AI公園 ? 2021-03-05 15:56 ? 次閱讀

導(dǎo)讀

從淺入深學(xué)習(xí)Transformer的資料匯總。

6434d47a-7c22-11eb-8b86-12bb97331649.jpg

Transformers 加速了自然語言處理(NLP)任務(wù)的新技術(shù)和模型的發(fā)展。雖然它主要用于NLP任務(wù),但現(xiàn)在它被大量應(yīng)用于處理計算機視覺任務(wù)。這使它成為一個非常重要的技術(shù)。

我知道很多機器學(xué)習(xí)和NLP的學(xué)生和從業(yè)者都非常熱衷于學(xué)習(xí)Transformers 。因此,我保存了一份資源和學(xué)習(xí)材料的配方,幫助學(xué)生了解Transformers的世界。

首先,在這篇文章中,我準備了一些材料鏈接,用于更好地從頭開始理解和實現(xiàn)transformer模型。

寫這篇文章的原因是這樣我就可以有一個簡單的方法來繼續(xù)更新學(xué)習(xí)材料。

高層次介紹

首先,關(guān)于Transformers的非常高層次的介紹。一些值得一看的參考資料:

https://theaisummer.com/transformer/

https://hannes-stark.com/assets/transformer_survey.pdf

Transformer 圖解

Jay Alammar)的解釋很特別。一旦你對Transformer有了高層次的理解,你就可以跳到下面這個流行的關(guān)于Transformer的圖解說明:

http://jalammar.github.io/illustrated-transformer/

67785c42-7c22-11eb-8b86-12bb97331649.jpg

技術(shù)匯總

此時,你可能正在尋找Transformers的技術(shù)摘要和概述。Lilian Weng的博文是一個寶藏,提供了簡潔的技術(shù)解釋/總結(jié):

https://lilianweng.github.io/lil-log/2020/04/07/the-transformer-family.html

實現(xiàn)

理論之后,檢驗知識是很重要的。我通常喜歡更詳細地理解事物,所以我更喜歡從頭開始實現(xiàn)算法。對于實現(xiàn)Transformers,我主要依賴于這個教程:

https://nlp.seas.harvard.edu/2018/04/03/attention.html

Attention Is All You Need

本文由Vaswani等人介紹了Transformer 的結(jié)構(gòu)。在你有一個高層次的理解和想要進入細節(jié)后再讀它。為了深入研究,請注意論文中的其他參考文獻。

https://arxiv.org/pdf/1706.03762v5.pdf

應(yīng)用 Transformers

在學(xué)習(xí)和理解Transformers背后的理論一段時間后,你可能會有興趣將它們應(yīng)用到不同的NLP項目或研究中?,F(xiàn)在,你最好的選擇是HuggingFace的Transformers庫。

https://github.com/huggingface/transformers

責(zé)任編輯:lq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 機器學(xué)習(xí)
    +關(guān)注

    關(guān)注

    66

    文章

    8353

    瀏覽量

    132315
  • Transformer
    +關(guān)注

    關(guān)注

    0

    文章

    139

    瀏覽量

    5968
  • 自然語言處理
    +關(guān)注

    關(guān)注

    1

    文章

    600

    瀏覽量

    13485

原文標(biāo)題:Transformers資料匯總,從概要到原理到應(yīng)用

文章出處:【微信號:zenRRan,微信公眾號:深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    自動駕駛中一直說的BEV+Transformer到底是個啥?

    (Bird’s Eye View)+Transformer”是兩個方向的技術(shù),BEV是一種全新的3D坐標(biāo)系,而Transformer則是一種深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)模型,BEV+Transformer
    的頭像 發(fā)表于 11-07 11:19 ?167次閱讀
    自動駕駛中一直說的BEV+<b class='flag-5'>Transformer</b>到底是個啥?

    Transformer能代替圖神經(jīng)網(wǎng)絡(luò)嗎

    Transformer作為一種在處理序列數(shù)據(jù)方面表現(xiàn)出色的深度學(xué)習(xí)模型,自其提出以來,已經(jīng)在自然語言處理(NLP)、時間序列分析等領(lǐng)域取得了顯著的成果。然而,關(guān)于Transformer是否能完全代替圖神經(jīng)網(wǎng)絡(luò)(GNN)的問題,需
    的頭像 發(fā)表于 07-12 14:07 ?355次閱讀

    Transformer語言模型簡介與實現(xiàn)過程

    在自然語言處理(NLP)領(lǐng)域,Transformer模型以其卓越的性能和廣泛的應(yīng)用前景,成為了近年來最引人注目的技術(shù)之一。Transformer模型由谷歌在2017年提出,并首次應(yīng)用于神經(jīng)機器翻譯
    的頭像 發(fā)表于 07-10 11:48 ?1121次閱讀

    使用PyTorch搭建Transformer模型

    Transformer模型自其問世以來,在自然語言處理(NLP)領(lǐng)域取得了巨大的成功,并成為了許多先進模型(如BERT、GPT等)的基礎(chǔ)。本文將深入解讀如何使用PyTorch框架搭建Transformer模型,包括模型的結(jié)構(gòu)、訓(xùn)練過程、關(guān)鍵組件以及實現(xiàn)細節(jié)。
    的頭像 發(fā)表于 07-02 11:41 ?1411次閱讀

    塑料焊接機熔對激光焊接質(zhì)量有什么影響

    的結(jié)合力,使得焊接接頭更加牢固可靠。反之,如果熔,焊縫的截面積會較小,可能導(dǎo)致焊接強度不足,影響產(chǎn)品的整體性能。2.密封性:對于需要密封的塑料制品(如容器、管
    的頭像 發(fā)表于 06-04 15:08 ?366次閱讀
    塑料焊接機熔<b class='flag-5'>深</b>對激光焊接質(zhì)量有什么影響

    講解Nginx限流相關(guān)配置

    漏桶漏出請求是勻速的。10r/s是怎樣勻速的呢?每100ms漏出一個請求。 在這樣的配置下,桶是空的,所有不能實時漏出的請求,都會被拒絕掉。 所以如果10次請求同時到達,那么只有一個請求能夠得到執(zhí)行,其它的,都會被拒絕。
    的頭像 發(fā)表于 04-29 11:24 ?392次閱讀
    <b class='flag-5'>淺</b><b class='flag-5'>入</b><b class='flag-5'>深</b>講解Nginx限流相關(guān)配置

    一文詳解Transformer神經(jīng)網(wǎng)絡(luò)模型

    Transformer模型在強化學(xué)習(xí)領(lǐng)域的應(yīng)用主要是應(yīng)用于策略學(xué)習(xí)和值函數(shù)近似。強化學(xué)習(xí)是指讓機器在與環(huán)境互動的過程中,通過試錯來學(xué)習(xí)最優(yōu)的
    發(fā)表于 02-20 09:55 ?1.2w次閱讀
    一文詳解<b class='flag-5'>Transformer</b>神經(jīng)網(wǎng)絡(luò)模型

    【年度精選】2023年度top5榜單——電機控制資料

    讀懂PID控制算法(拋棄公式,原理上真正理解PID控制) 作者:ben111 下載量:360 推薦理由: 這篇資料原理上深入出地解釋了PID控制算法,讓讀者真正理解其核心
    發(fā)表于 01-16 14:34

    大語言模型背后的Transformer,與CNN和RNN有何不同

    ? 電子發(fā)燒友網(wǎng)報道(文/李彎彎)近年來,隨著大語言模型的不斷出圈,Transformer這一概念也走進了大眾視野。Transformer是一種非常流行的深度學(xué)習(xí)模型,最早于2017年由谷歌
    的頭像 發(fā)表于 12-25 08:36 ?3658次閱讀
    大語言模型背后的<b class='flag-5'>Transformer</b>,與CNN和RNN有何不同

    更深層的理解視覺Transformer, 對視覺Transformer的剖析

    最后是在ADE20K val上的LeaderBoard,通過榜單也可以看出,在榜單的前幾名中,Transformer結(jié)構(gòu)依舊占據(jù)是當(dāng)前的主力軍。
    的頭像 發(fā)表于 12-07 09:39 ?721次閱讀
    更深層的理解視覺<b class='flag-5'>Transformer</b>, 對視覺<b class='flag-5'>Transformer</b>的剖析

    基于transformer和自監(jiān)督學(xué)習(xí)的路面異常檢測方法分享

    鋪設(shè)異常檢測可以幫助減少數(shù)據(jù)存儲、傳輸、標(biāo)記和處理的壓力。本論文描述了一種基于Transformer和自監(jiān)督學(xué)習(xí)的新方法,有助于定位異常區(qū)域。
    的頭像 發(fā)表于 12-06 14:57 ?1383次閱讀
    基于<b class='flag-5'>transformer</b>和自監(jiān)督<b class='flag-5'>學(xué)習(xí)</b>的路面異常檢測方法分享

    降低Transformer復(fù)雜度O(N^2)的方法匯總

    首先來詳細說明為什么Transformer的計算復(fù)雜度是 。將Transformer中標(biāo)準的Attention稱為Softmax Attention。令 為長度為 的序列, 其維度為 , 。 可看作Softmax Attention的輸入。
    的頭像 發(fā)表于 12-04 15:31 ?1049次閱讀
    降低<b class='flag-5'>Transformer</b>復(fù)雜度O(N^2)的方法<b class='flag-5'>匯總</b>

    直播預(yù)告 | 開源賦能系列課程【第1期】精彩來襲!

    時間: 2023/11 /21 1930 本期嘉賓:劉果, 開放原子開源基金會TOC項目導(dǎo)師 ? 本期主題:《如何參與OpenHarmony社區(qū)》 ? 記得準時掃描海報直播間二
    的頭像 發(fā)表于 11-21 08:36 ?300次閱讀
    直播預(yù)告 | 開源賦能系列課程【第1期】精彩來襲!

    關(guān)于深度學(xué)習(xí)模型Transformer模型的具體實現(xiàn)方案

    Transformer 本質(zhì)上是一個 Encoder-Decoder 架構(gòu)。因此中間部分的 Transformer 可以分為兩個部分:編碼組件和解碼組件。
    發(fā)表于 11-17 10:34 ?491次閱讀
    關(guān)于深度<b class='flag-5'>學(xué)習(xí)</b>模型<b class='flag-5'>Transformer</b>模型的具體實現(xiàn)方案

    求助,AD8132諧波測試電路中的transformer有沒有推薦型號?

    AD8132諧波測試電路中的transformer有沒有推薦型號?
    發(fā)表于 11-16 06:15