0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Google科學家設(shè)計簡化稀疏架構(gòu)Switch Transformer,語言模型的參數(shù)量可擴展至 1.6 萬億

工程師鄧生 ? 來源:機器之心Pro ? 作者:機器之心 ? 2021-01-13 16:50 ? 次閱讀

剛剛,Google Brain 高級研究科學家 Barret Zoph 發(fā)帖表示,他們設(shè)計了一個名叫「Switch Transformer」的簡化稀疏架構(gòu),可以將語言模型的參數(shù)量擴展至 1.6 萬億(GPT-3 是 1750 億)。在計算資源相同的情況下,Switch Transformer 的訓練速度可以達到 T5 模型的 4-7 倍。

10963b1dd5b045bdbd686dc5d0550591.png

深度學習領(lǐng)域,模型通常會對所有輸入重用相同的參數(shù)。但 Mixture of Experts (MoE,混合專家) 模型是個例外,它們會為每個輸入的例子選擇不同的參數(shù),結(jié)果得到一個稀疏激活模型——雖然參數(shù)量驚人,但計算成本恒定。

目前,MoE 模型已在機器翻譯領(lǐng)域取得了令人矚目的成就,但由于模型復雜度高、通信成本高、訓練不夠穩(wěn)定,其廣泛應(yīng)用受到了一定的阻礙。

為了解決這些問題,Google Brain 的研究者提出了 Switch Transformer。在 Switch Transformer 的設(shè)計中,它們簡化了 MoE 的路由算法(routing algorithm),設(shè)計了直觀的改進模型,新模型的通信成本和計算成本都大大降低。此外,他們提出的訓練技術(shù)還提高了訓練的穩(wěn)定性,首次表明大型稀疏模型也可以用低精度(bfloat16)進行訓練。

dc4a864ea2934cc2a8ddb65b662569c5.png

論文鏈接:https://arxiv.org/pdf/2101.03961.pdf

代碼鏈接:https://github.com/tensorflow/mesh/blob/master/mesh_tensorflow/transformer/moe.py

研究者還將新模型與 T5-Base 和 T5-Large 進行了對比,結(jié)果表明,在相同的計算資源下,新模型實現(xiàn)了最高 7 倍的預(yù)訓練速度提升。這一改進還可以擴展至多語言設(shè)置中,在所有的 101 種語言中都測到了新模型相對于 mT5-Base 版本的性能提升。

最后,研究者在 Colossal Clean Crawled Corpus 上進行預(yù)訓練,將語言模型的參數(shù)量提升至上萬億,且相比 T5-XXL 模型實現(xiàn)了 4 倍加速。

研究者還表示,雖然這項工作著眼于規(guī)模,但它也表明,Switch Transformer 架構(gòu)不僅在具備超級計算機的環(huán)境下具有優(yōu)勢,在只有幾個計算核心的計算機上也是有效的。此外,研究者設(shè)計的大型稀疏模型可以被蒸餾為一個小而稠密的版本,同時還能保留稀疏模型質(zhì)量提升的 30%。

Switch Transformer 的設(shè)計原理

Switch Transformer 的主要設(shè)計原則是,以一種簡單且計算高效的方式最大化 Transformer 模型的參數(shù)量。Kaplan 等人(2020)已經(jīng)對擴展的效益進行了詳盡的研究,揭示了隨模型、數(shù)據(jù)集大小以及計算預(yù)算變化的冪定律縮放。重要的是,該研究提倡在相對較少數(shù)據(jù)上訓練大型模型,將其作為計算最優(yōu)方法。

基于這些,研究者在增加參數(shù)量的同時保持每個示例的 FLOP 不變。他們假設(shè)參數(shù)量與執(zhí)行的總計算量無關(guān),是可以單獨縮放的重要組件。所以,研究者通過設(shè)計一個稀疏激活的模型來實現(xiàn)這一目標,該模型能夠高效地利用 GPU 和 TPU 等為稠密矩陣乘法設(shè)計的硬件。

在分布式訓練設(shè)置中,模型的稀疏激活層在不同設(shè)備上分配唯一的權(quán)重。所以,模型權(quán)重隨設(shè)備數(shù)量的增加而增加,同時在每個設(shè)備上保持可管理的內(nèi)存和計算空間。

Switch Transformer 的編碼器塊如下圖 2 所示:

2d79ef8ced5f44e98ceb17673d9819cf.jpeg

簡化稀疏路由

Shazeer 等人(2017)提出了一個自然語言 MoE 層,它以 token 表征 x 為輸入,然后將其發(fā)送給最堅定的 top-k 專家(從 N 個專家組成的 ^N_i=1 集合中選出)。他們假設(shè)將 token 表征發(fā)送給 k》1 個專家是必要的,這樣可以使 routing 函數(shù)具備有意義的梯度。他們認為如果沒有對比至少兩個專家的能力,則無法學習路由。

與這些想法不同,谷歌大腦這項研究采用簡化策略,只將 token 表征發(fā)送給單個專家。研究表明,這種簡化策略保持了模型質(zhì)量,降低了路由計算,并且性能更好。研究者將這種 k=1 的策略稱為 Switch 層。

下圖 3 展示了具有不同專家容量因子(expert capacity factor)的路由示例:

f68847a988ea4d7596ae8873a005ae6f.jpeg

高效稀疏路由

研究者使用了 Mesh-Tensorflow 庫 (MTF),它具有類似于 TensorFlow 的語義和 API,可促進高效分布式數(shù)據(jù)和模型并行架構(gòu)。研究者在設(shè)計模型時考慮到了 TPU,它需要靜態(tài)大小。

分布式 Switch Transformer 實現(xiàn):所有張量形狀在編譯時均得到靜態(tài)確定,但由于訓練和推斷過程中的路由決策,計算是動態(tài)的。鑒于此,一個重要的技術(shù)難題出現(xiàn)了:如何設(shè)置專家容量?

專家容量(每個專家計算的 token 數(shù)量)的計算方式為:每個批次的 token 數(shù)量除以專家數(shù)量,再乘以容量因子。如公式(3)所示:

454491e315584f46af89093ceee5b856.png

如果將太多 token 發(fā)送給一個專家(下文稱為「丟棄的 token」),則會跳過計算,token 表征通過殘差連接直接傳遞到下層。但增加專家容量也不是沒有缺點,數(shù)值太高將導致計算和內(nèi)存浪費。這當著的權(quán)衡如上圖 3 所示。

實證研究發(fā)現(xiàn),將丟棄的 token 比例保持在較低水平對于稀疏專家模型的擴展很重要。設(shè)計決策對模型質(zhì)量和速度的影響參見下表 1。

Switch Transformer

研究者首先在 Colossal Clean Crawled Corpus (C4) 數(shù)據(jù)集上對 Switch Transformer 進行了預(yù)訓練測試,使用了掩蔽語言建模任務(wù)。在預(yù)訓練設(shè)置中,他們遵循 Raffel 等人(2019)確定的最優(yōu)方案,去掉了 15% 的 token,然后使用單個 sentinel token 來替代掩蔽序列。為了比較模型性能,研究者提供了負對數(shù)困惑度的結(jié)果。

Switch Transformer 與 MoE Transformer 的比較結(jié)果如下表 1 所示。結(jié)果表明,Switch Transformer 在速度 - 質(zhì)量(speed-quality)基礎(chǔ)上優(yōu)于精心調(diào)整的稠密模型和 MoE Transformer,并在固定計算量和掛鐘時間情況下取得了最佳結(jié)果;Switch Transformer 的計算占用空間比 MoE Transformer ??;Switch Transformer 在低容量因子(1.0, 1.25)下表現(xiàn)更好。

ab8004dc51de465ca3501c10f430cb0c.png

提升訓練和微調(diào)的技巧

與原版 Transformer 模型相比,稀疏專家模型在訓練時可能更加困難。所有這些層中的 hard-swithing(路由)決策都可能導致模型的不穩(wěn)定。此外,像 bfloat16 這樣的低精度格式可能加劇 router 的 softmax 計算問題。研究者采取了以下幾種技巧來克服訓練困難,并實現(xiàn)穩(wěn)定和可擴展的訓練。

對大型稀疏模型使用可選擇行精度(Selective precision with large sparse models)

為實現(xiàn)穩(wěn)定性使用更小的參數(shù)初始化(Smaller parameter initialization for stability)

正則化大型稀疏模型(Regularizing large sparse models)

預(yù)訓練可擴展性

在預(yù)訓練期間,研究者對 Switch Transformer 的可擴展性進行了研究。在此過程中,他們考慮了一個算力和數(shù)據(jù)都不受限制的機制。為了避免數(shù)據(jù)受限,研究者使用了大型 C4 數(shù)據(jù)庫,里面包含 180B 的目標 token。在觀察到收益遞減之前,他們一直進行訓練。

專家的數(shù)量是擴展模型最有效的維度。增加專家的數(shù)量幾乎不會改變計算成本,因為模型只為每個 token 選擇一個專家,這與專家的總體數(shù)量無關(guān)。router 必須基于更多的專家計算概率分布,但這是一個輕量級的計算成本 O(d_model × num experts)。其中,d_model 是層與層之間所傳遞的 token 的嵌入維度。在這一部分,研究者以固定的計算成本考慮基于步數(shù)和時間的可伸縮性。

基于步數(shù)的可擴展性

下圖 4 展示了多個模型在訓練步數(shù)恒定、專家數(shù)量增加時表現(xiàn)出的可擴展性提升情況。從中可以觀察到一個趨勢:在保持每個 token 的 FLOPS 不變時,擁有更多的參數(shù)(專家)可以提高訓練速度。

4fd3a0e55fcc4432808e2d7cfa2406d6.png

基于時間的可擴展性

如上圖 4 所示,隨著專家數(shù)量的增加,模型的性能會不斷提升。雖然模型的每個 token 擁有與基線近乎相同的 FLOPS,但 Switch Transformers 會產(chǎn)生額外的跨設(shè)備通信成本,路由機制也會帶來額外的計算開銷。因此,在基于步數(shù)的設(shè)置中觀察到的樣本效率提升未必能轉(zhuǎn)化為時間上的模型質(zhì)量提升。這就引出了一個問題:

在訓練時間和計算成本都固定的前提下,我們應(yīng)該訓練一個稠密模型還是稀疏模型?

下圖 5 和 6 解決了這個問題。圖 5 展示了預(yù)訓練模型質(zhì)量隨訓練時間增加所產(chǎn)生的變化。在訓練時間和計算成本都固定的情況下,Switch Transformer 的速度優(yōu)勢非常明顯。在這種設(shè)置下,如果要達到相似的困惑度,Switch-Base 64 專家模型的訓練時間僅為 T5-Base 模型的 1/7。

e249779d57284745b6aadd922d00ce5a.png

e383d09e868f4d03b16cd1b0e3cdac19.png

可擴展性 VS. 一個更大的稠密模型

上面的實驗表明,一個計算不受限制的稠密模型已經(jīng)被 Switch 超越。圖 6 考慮了一種不同的情況:如果把計算資源分給一個更大的稠密模型會怎么樣?

為了驗證這個問題,研究者將 Switch-Base 與更強的基線 T5-Large 進行了對比。實驗結(jié)果表明,盡管 T5-Large 每個 token 所用的 FLOPs 是 Switch-Base 的 3.5 倍,但后者的樣本效率依然更高,而且速度是前者的 2.5 倍。此外,如果設(shè)計一個與 T5-Large 所需 FLOPs 相同的 Switch 模型(Switch-Large),上述提升還會更加明顯。

下游任務(wù)中的結(jié)果

微調(diào)

這里使用的基線方法是經(jīng)過高度調(diào)參、具備 223M 參數(shù)的 T5-Base 和具備 739M 參數(shù)的 T5-Large 模型。針對這兩個模型,該研究作者設(shè)計了具備更多參數(shù)的 FLOP-matched Switch Transformer。

e91126803e9e4dd9ba8deaad48dd501c.png

在多項自然語言任務(wù)中,Switch Transformer 帶來了顯著性能提升。最明顯的是 SuperGLUE,在該基準上 FLOP-matched Switch Transformer 相比 T5-Base 和 T5-Large 的性能分別提升了 4.4% 和 2%,在 Winogrande、closed book Trivia QA 和 XSum 上也出現(xiàn)了類似情況。唯一沒有觀察到性能提升的基準是 AI2 推理挑戰(zhàn)賽(ARC)數(shù)據(jù)集:在 ARC challenge 數(shù)據(jù)集上 T5-Base 的性能超過 Switch-Base;在 ARC easy 數(shù)據(jù)集上,T5-Large 的性能超過 Switch-Large。

整體而言,Switch Transformer 模型在多項推理和知識任務(wù)中帶來了顯著性能提升。這說明該模型架構(gòu)不只對預(yù)訓練有用,還可以通過微調(diào)將質(zhì)量改進遷移至下游任務(wù)中。

c9ce1fa0043045fdaeeb1964c398f98a.png

蒸餾

部署具備十億、萬億參數(shù)量的大型神經(jīng)網(wǎng)絡(luò)并非易事。為此,該論文研究了如何將大型稀疏模型蒸餾為小型稠密模型。下表 7 展示了該研究所用的蒸餾技術(shù):

8f345bd8a1ad4a42ac516634daa278ec.png

使用表 7 中最優(yōu)的蒸餾技術(shù)后,研究者將多個稀疏模型蒸餾為稠密模型。他們對 Switch-Base 模型進行蒸餾,由于專家數(shù)量的不同,其參數(shù)量在 11 億至 147 億之間。該研究可以將具備 11 億參數(shù)量的模型壓縮 82%,同時保留 37% 的性能提升。最極端的情況下,將模型壓縮了 99%,且維持了 28% 的性能提升。

d362fd9b873242d6ad1b345f5490b78d.png

最后,研究者將微調(diào)稀疏模型蒸餾為稠密模型。下表 9 展示了對 74 億參數(shù) Switch-Base 模型(該模型針對 SuperGLUE 任務(wù)進行了微調(diào))的蒸餾結(jié)果——223M T5-Base。與預(yù)訓練結(jié)果類似,蒸餾后的模型仍保留 30% 的性能提升。這可能有助于確定用于微調(diào)任務(wù)的特定專家并進行提取,從而獲得更好的模型壓縮。

1cf93ea6022443ccb90ef98a7be1cd93.png

多語言學習

在下游任務(wù)實驗中,研究者衡量了模型質(zhì)量和速度的權(quán)衡,模型在 101 種不同語言上進行了預(yù)訓練。下圖 7 展示了 Switch T5 Base 模型與 mT5-Base 在所有語言上的質(zhì)量提升情況(負對數(shù)困惑度)。對兩個模型經(jīng)過 100 萬步預(yù)訓練后,Switch Transformer 的最終負對數(shù)困惑度相較基線有所提升。

23eb76c8badf4659aad7aa496acf1985.png

下圖 8 展示了 Switch Transformer 相較 mT5-Base 的每一步加速情況,前者實現(xiàn)了平均 5 倍的加速,其中在 91% 的語言上實現(xiàn)了至少 4 倍加速。這表明 Switch Transformer 是高效的多任務(wù)和多語言學習器。

bc9d15bc6a4e4eb991717fb0b5f0cf03.png

使用數(shù)據(jù)、模型和專家并行化來設(shè)計模型

隨意地增加專家數(shù)量會出現(xiàn)收益遞減問題(參見上圖 4),該研究介紹了一些補充性的擴展策略,涉及結(jié)合數(shù)據(jù)、模型與專家并行化的權(quán)衡。

結(jié)合數(shù)據(jù)、模型與專家并行化,構(gòu)建萬億參數(shù)模型

Switch Transformer 設(shè)計過程中,研究者試圖平衡 FLOPs per token 和參數(shù)量。當專家數(shù)量增加時,則參數(shù)量增加,但不改變 FLOPs per token。要想增加 FLOPs,則需增加 d_ff 維度(這也會帶來參數(shù)量的增加,但相對較少)。這就是一種權(quán)衡:增加 d_ff 維度會導致每個核心內(nèi)存的耗盡,因而必須增加 m。但由于核心 N 的數(shù)量是固定的 N = n × m,因此必須降低 n,也就是說需要使用更小的批大小。

18c1695df73f4c05ae129415310e828d.png

在結(jié)合模型并行化和專家并行化之后,發(fā)送 token 到正確的專家以及模型并行化導致的內(nèi)部 all-reduce 通信會帶來 all-to-all 通信成本。在結(jié)合這三種方法時,如何平衡 FLOPs、通信成本和每個核心的內(nèi)存變得非常復雜。

該研究結(jié)合數(shù)據(jù)、模型與專家并行化,設(shè)計了兩個大型 Switch Transformer 模型,分別具備3950 億參數(shù)和1.6 萬億參數(shù),并研究了這些模型在上游預(yù)訓練語言模型和下游微調(diào)任務(wù)中的性能。參數(shù)量、FLOPs 和不同模型的超參數(shù)參見下表 10:

bd8053a880a34e92b9aa93312e236d77.png

關(guān)于 Switch Transformer 還有很多問題

在論文最后部分,谷歌大腦研究者探討了一些關(guān)于 Switch Transformer 和稀疏專家模型的問題(這里稀疏指的是權(quán)重,而不是注意力模式)。

問題 1:Switch Transformer 的性能更好嗎?原因是否在于巨量參數(shù)?

性能的確更好,但原因不在參數(shù)量,而在于設(shè)計。參數(shù)有助于擴展神經(jīng)語言模型,大模型的性能確實會好一些。但是該研究提出的模型在使用相同計算資源的情況下具備更高的樣本效率。

問題 2:沒有超級計算機的情況下,我能使用該方法嗎?

盡管這篇論文聚焦非常大型的模型,但研究者仍找到了具備兩個專家的模型,既能提升性能又可以輕松適應(yīng)常用 GPU 或 TPU 的內(nèi)存限制。因此,研究者認為該技術(shù)可用于小規(guī)模設(shè)置中。

問題 3:在速度 - 準確率帕累托曲線上,稀疏模型的表現(xiàn)優(yōu)于稠密模型嗎?

是的。在多種不同模型規(guī)模情況下,稀疏模型在每一步和墻上時鐘時間方面都優(yōu)于稠密模型。受控實驗表明,對于固定的計算量和時間而言,稀疏模型的表現(xiàn)超過稠密模型。

問題 4:我無法部署萬億參數(shù)模型,可以將模型縮小嗎?

雖然無法完整維持萬億參數(shù)模型的質(zhì)量,但通過將稀疏模型蒸餾為稠密模型,可實現(xiàn) 10-100 倍的壓縮率,同時獲得專家模型約 30% 的質(zhì)量改進。

問題 5:為什么要使用 Switch Transformer 代替模型并行稠密模型?

以時間為基準,Switch Transformer 要比使用分片參數(shù)(sharded parameter)的稠密模型高效得多。同時,這一選擇并非互斥,Switch Transformer 中也可以使用模型并行化,這可以提高 FLOPs per token,但也會導致傳統(tǒng)模型并行化的減速。

問題 6:為什么稀疏模型未得到廣泛使用?

嘗試稀疏模型的想法被稠密模型的巨大成功所阻撓。并且,稀疏模型面臨著多個問題,包括模型復雜度、訓練難度、通信成本等。而 Switch Transformer 緩解了這些問題。

責任編輯:PSY

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • Google
    +關(guān)注

    關(guān)注

    5

    文章

    1748

    瀏覽量

    57190
  • 架構(gòu)
    +關(guān)注

    關(guān)注

    1

    文章

    501

    瀏覽量

    25376
  • 語言模型
    +關(guān)注

    關(guān)注

    0

    文章

    487

    瀏覽量

    10201
收藏 人收藏

    評論

    相關(guān)推薦

    英偉達Blackwell支持10萬億參數(shù)模型AI訓練,實時大語言模型推理

    、NVLink交換機、Spectrum以太網(wǎng)交換機和Quantum InfiniBand交換機。 ? 英偉達稱,Blackwell擁有6項革命性技術(shù),支持多達10萬億參數(shù)模型進行A
    的頭像 發(fā)表于 09-04 09:10 ?2631次閱讀

    【《大語言模型應(yīng)用指南》閱讀體驗】+ 基礎(chǔ)知識學習

    的表達方式和生成能力。通過預(yù)測文本中缺失的部分或下一個詞,模型逐漸掌握語言的規(guī)律和特征。 常用的模型結(jié)構(gòu) Transformer架構(gòu):大
    發(fā)表于 08-02 11:03

    Transformer語言模型簡介與實現(xiàn)過程

    任務(wù),隨后迅速擴展到其他NLP任務(wù)中,如文本生成、語言理解、問答系統(tǒng)等。本文將詳細介紹Transformer語言模型的原理、特點、優(yōu)勢以及實
    的頭像 發(fā)表于 07-10 11:48 ?649次閱讀

    Transformer架構(gòu)在自然語言處理中的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,自然語言處理(NLP)領(lǐng)域取得了顯著的進步。其中,Transformer架構(gòu)的提出,為NLP領(lǐng)域帶來了革命性的變革。本文將深入探討Transformer
    的頭像 發(fā)表于 07-09 11:42 ?530次閱讀

    使用PyTorch搭建Transformer模型

    Transformer模型自其問世以來,在自然語言處理(NLP)領(lǐng)域取得了巨大的成功,并成為了許多先進模型(如BERT、GPT等)的基礎(chǔ)。本文將深入解讀如何使用PyTorch框架搭建
    的頭像 發(fā)表于 07-02 11:41 ?1066次閱讀

    進一步解讀英偉達 Blackwell 架構(gòu)、NVlink及GB200 超級芯片

    計算工作負載、釋放百億億次計算能力和萬億參數(shù)人工智能模型的全部潛力提供關(guān)鍵基礎(chǔ)。 NVLink釋放數(shù)萬億參數(shù)AI
    發(fā)表于 05-13 17:16

    基于xLSTM和Transformer模型評估:xLSTM在“語言能力”的表現(xiàn)

    近期,Hochreiter在arXiv平臺發(fā)表論文,推出了一款新型的XLSTM(擴展LSTM)架構(gòu),有效克服了傳統(tǒng)LSTM互聯(lián)網(wǎng)結(jié)構(gòu)“僅能按時間順序處理信息”的局限性,有望挑戰(zhàn)當前熱門的Transformer
    的頭像 發(fā)表于 05-13 10:31 ?529次閱讀

    【大語言模型:原理與工程實踐】大語言模型的基礎(chǔ)技術(shù)

    之后,成為文本建模領(lǐng)域的熱門架構(gòu)。不僅如此,它還對自然語言處理領(lǐng)域產(chǎn)生了深遠的影響?;?b class='flag-5'>Transformer的預(yù)訓練模型,如GPT系列和BERT系列,已在多種任務(wù)上取得了卓越的成績。
    發(fā)表于 05-05 12:17

    【大語言模型:原理與工程實踐】核心技術(shù)綜述

    中應(yīng)用,需要考慮到性能、擴展性和安全性等因素。 大語言模型正在快速發(fā)展,新技術(shù)不斷涌現(xiàn)。未來的研究可能集中在提高模型效率、理解和可解釋性
    發(fā)表于 05-05 10:56

    【大語言模型:原理與工程實踐】揭開大語言模型的面紗

    語言模型(LLM)是人工智能領(lǐng)域的尖端技術(shù),憑借龐大的參數(shù)量和卓越的語言理解能力贏得了廣泛關(guān)注。它基于深度學習,利用神經(jīng)網(wǎng)絡(luò)框架來理解和生成自然
    發(fā)表于 05-04 23:55

    【大語言模型:原理與工程實踐】探索《大語言模型原理與工程實踐》

    處理中預(yù)訓練架構(gòu)Transformer,以及這些技術(shù)在現(xiàn)實世界中的如何應(yīng)用。通過具體案例的分析,作者展示了大語言模型在解決實際問題中的強大能力,同時也指出了當前技術(shù)面臨的挑戰(zhàn)和局限性。
    發(fā)表于 04-30 15:35

    NVIDIA首席科學家Bill Dally:深度學習硬件趨勢

    Bill Dally于2009年1月加入NVIDIA擔任首席科學家,此前在斯坦福大學任職12年,擔任計算機科學系主任。Dally及其斯坦福團隊開發(fā)了系統(tǒng)架構(gòu)、網(wǎng)絡(luò)架構(gòu)、信號傳輸、路由和
    的頭像 發(fā)表于 02-25 16:16 ?869次閱讀
    NVIDIA首席<b class='flag-5'>科學家</b>Bill Dally:深度學習硬件趨勢

    基于Transformer模型的壓縮方法

    基于Transformer架構(gòu)的大型模型在人工智能領(lǐng)域中發(fā)揮著日益重要的作用,特別是在自然語言處理(NLP)和計算機視覺(CV)領(lǐng)域。
    的頭像 發(fā)表于 02-22 16:27 ?492次閱讀
    基于<b class='flag-5'>Transformer</b><b class='flag-5'>模型</b>的壓縮方法

    語言模型背后的Transformer,與CNN和RNN有何不同

    ? 電子發(fā)燒友網(wǎng)報道(文/李彎彎)近年來,隨著大語言模型的不斷出圈,Transformer這一概念也走進了大眾視野。Transformer是一種非常流行的深度學習
    的頭像 發(fā)表于 12-25 08:36 ?3014次閱讀
    大<b class='flag-5'>語言</b><b class='flag-5'>模型</b>背后的<b class='flag-5'>Transformer</b>,與CNN和RNN有何不同

    揭秘編碼器與解碼器語言模型

    Transformer 架構(gòu)的問世標志著現(xiàn)代語言模型時代的開啟。自 2018 年以來,各類語言模型
    的頭像 發(fā)表于 10-24 11:42 ?619次閱讀
    揭秘編碼器與解碼器<b class='flag-5'>語言</b><b class='flag-5'>模型</b>