0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

一文看懂NLP里的模型框架 Encoder-Decoder和Seq2Seq

電子設(shè)計(jì) ? 來(lái)源:電子設(shè)計(jì) ? 作者:電子設(shè)計(jì) ? 2020-12-10 22:19 ? 次閱讀

Encoder-Decoder 和 Seq2Seq

機(jī)器翻譯、對(duì)話(huà)機(jī)器人、詩(shī)詞生成、代碼補(bǔ)全、文章摘要(文本 - 文本)

「文本 - 文本」 是最典型的應(yīng)用,其輸入序列和輸出序列的長(zhǎng)度可能會(huì)有較大的差異。

Google 發(fā)表的用Seq2Seq做機(jī)器翻譯的論文《Sequence to Sequence Learning with Neural Networks》

語(yǔ)音識(shí)別音頻 - 文本)

語(yǔ)音識(shí)別也有很強(qiáng)的序列特征,比較適合 Encoder-Decoder 模型。

Google 發(fā)表的使用Seq2Seq做語(yǔ)音識(shí)別的論文《A Comparison of Sequence-to-Sequence Models for Speech Recognition》

圖像描述生成(圖片 - 文本)

通俗的講就是「看圖說(shuō)話(huà)」,機(jī)器提取圖片特征,然后用文字表達(dá)出來(lái)。這個(gè)應(yīng)用是計(jì)算機(jī)視覺(jué)和 NLP 的結(jié)合。

圖像描述生成的論文《Sequence to Sequence – Video to Text》

Encoder-Decoder 的缺陷

上文提到:Encoder(編碼器)和 Decoder(解碼器)之間只有一個(gè)「向量 c」來(lái)傳遞信息,且 c 的長(zhǎng)度固定。

為了便于理解,我們類(lèi)比為「壓縮-解壓」的過(guò)程:

將一張 800X800 像素的圖片壓縮成 100KB,看上去還比較清晰。再將一張 3000X3000 像素的圖片也壓縮到 100KB,看上去就模糊了。

Encoder-Decoder 就是類(lèi)似的問(wèn)題:當(dāng)輸入信息太長(zhǎng)時(shí),會(huì)丟失掉一些信息。

Attention 解決信息丟失問(wèn)題

Attention 機(jī)制就是為了解決「信息過(guò)長(zhǎng),信息丟失」的問(wèn)題。

Attention 模型的特點(diǎn)是 Eecoder 不再將整個(gè)輸入序列編碼為固定長(zhǎng)度的「中間向量 C」 ,而是編碼成一個(gè)向量的序列。

這樣,在產(chǎn)生每一個(gè)輸出的時(shí)候,都能夠做到充分利用輸入序列攜帶的信息。而且這種方法在翻譯任務(wù)中取得了非常不錯(cuò)的成果。

審核編輯 黃昊宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1791

    文章

    46671

    瀏覽量

    237118
  • nlp
    nlp
    +關(guān)注

    關(guān)注

    1

    文章

    486

    瀏覽量

    21987
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    nlp邏輯層次模型的特點(diǎn)

    NLP(自然語(yǔ)言處理)邏輯層次模型種用于理解和生成自然語(yǔ)言文本的計(jì)算模型。它將自然語(yǔ)言文本分解為不同的層次,以便于計(jì)算機(jī)更好地處理和理解。以下是對(duì)
    的頭像 發(fā)表于 07-09 10:39 ?297次閱讀

    nlp自然語(yǔ)言處理框架有哪些

    許多優(yōu)秀的框架和工具,這些框架和工具為研究人員和開(kāi)發(fā)者提供了強(qiáng)大的支持。以下是些主要的NLP框架和工具的介紹: NLTK(Natural
    的頭像 發(fā)表于 07-09 10:28 ?467次閱讀

    llm模型有哪些格式

    : 基于Transformer的模型 Transformer是種基于自注意力機(jī)制的模型,廣泛應(yīng)用于NLP領(lǐng)域?;赥ransformer的LLM
    的頭像 發(fā)表于 07-09 09:59 ?518次閱讀

    nlp自然語(yǔ)言處理模型怎么做

    的進(jìn)展。本文將詳細(xì)介紹NLP模型的構(gòu)建過(guò)程,包括數(shù)據(jù)預(yù)處理、模型選擇、訓(xùn)練與優(yōu)化等方面。 數(shù)據(jù)預(yù)處理 數(shù)據(jù)預(yù)處理是NLP模型構(gòu)建的第
    的頭像 發(fā)表于 07-05 09:59 ?498次閱讀

    nlp自然語(yǔ)言處理模型有哪些

    自然語(yǔ)言處理(Natural Language Processing,NLP)是計(jì)算機(jī)科學(xué)和人工智能領(lǐng)域的個(gè)重要分支,旨在使計(jì)算機(jī)能夠理解、解釋和生成人類(lèi)語(yǔ)言。以下是對(duì)NLP領(lǐng)域
    的頭像 發(fā)表于 07-05 09:57 ?579次閱讀

    NLP模型中RNN與CNN的選擇

    NLP中的應(yīng)用場(chǎng)景、工作原理、優(yōu)缺點(diǎn),以及在選擇時(shí)應(yīng)考慮的關(guān)鍵因素,以期為讀者提供個(gè)全面而深入的理解。
    的頭像 發(fā)表于 07-03 15:59 ?383次閱讀

    基于神經(jīng)網(wǎng)絡(luò)的呼吸音分類(lèi)算法

    的有用子樣本。當(dāng)前模型中使用的注意力機(jī)制與通常用于seq2seq模型的機(jī)制不同[19]。主要區(qū)別在于,seq2seq注意力機(jī)制通常使用編碼器隱藏狀態(tài)的加權(quán)和來(lái)創(chuàng)建上下文向量,并將其映射
    發(fā)表于 05-31 12:05

    大語(yǔ)言模型:原理與工程時(shí)間+小白初識(shí)大語(yǔ)言模型

    解鎖 我理解的是基于深度學(xué)習(xí),需要訓(xùn)練各種數(shù)據(jù)知識(shí)最后生成自己的的語(yǔ)言理解和能力的交互模型。 對(duì)于常說(shuō)的RNN是處理短序列的數(shù)據(jù)時(shí)表現(xiàn)出色,耳真正厲害的是Transformer,此框架被推出后直接
    發(fā)表于 05-12 23:57

    【大語(yǔ)言模型:原理與工程實(shí)踐】大語(yǔ)言模型的基礎(chǔ)技術(shù)

    ,這也是如今生成式 AI 中大語(yǔ)言模型最流行訓(xùn)練架構(gòu)。(3) Encoder-Decoder預(yù)訓(xùn)練語(yǔ)言模型:這類(lèi)模型旨在將各種自然語(yǔ)言處理任務(wù)統(tǒng)為
    發(fā)表于 05-05 12:17

    谷歌模型框架是什么軟件?谷歌模型框架怎么用?

    谷歌模型框架通常指的是谷歌開(kāi)發(fā)的用于機(jī)器學(xué)習(xí)和人工智能的軟件框架,其中最著名的是TensorFlow。TensorFlow是個(gè)開(kāi)源的機(jī)器學(xué)習(xí)框架
    的頭像 發(fā)表于 03-01 16:25 ?774次閱讀

    谷歌模型框架是什么?有哪些功能和應(yīng)用?

    谷歌模型框架(Google Model Framework)并不是個(gè)特定的框架,而是指谷歌開(kāi)發(fā)的系列軟件
    的頭像 發(fā)表于 02-29 18:11 ?1382次閱讀

    【每周練】+盤(pán)古1K開(kāi)發(fā)板+4.密碼鎖

    前言 按照要求,應(yīng)該實(shí)現(xiàn)如下功能: 實(shí)驗(yàn)?zāi)康模?利用按鍵、撥碼開(kāi)關(guān)以及數(shù)碼管實(shí)現(xiàn)種簡(jiǎn)單的密碼鎖 實(shí)驗(yàn)要求: 撥碼開(kāi)關(guān)SW1-SW4 設(shè)置 2 位數(shù)密碼,每?jī)晌辉O(shè)置位密碼,BM[0:1]設(shè)置
    發(fā)表于 12-17 17:05

    看懂BLE Mesh

    看懂BLE Mesh
    的頭像 發(fā)表于 12-06 16:24 ?1398次閱讀
    <b class='flag-5'>一</b><b class='flag-5'>文</b><b class='flag-5'>看懂</b>BLE Mesh

    關(guān)于深度學(xué)習(xí)模型Transformer模型的具體實(shí)現(xiàn)方案

    Transformer 本質(zhì)上是個(gè) Encoder-Decoder 架構(gòu)。因此中間部分的 Transformer 可以分為兩個(gè)部分:編碼組件和解碼組件。
    發(fā)表于 11-17 10:34 ?491次閱讀
    關(guān)于深度學(xué)習(xí)<b class='flag-5'>模型</b>Transformer<b class='flag-5'>模型</b>的具體實(shí)現(xiàn)方案

    ADC16 DMA緩沖區(qū)最大只能1024位,設(shè)置大于1024時(shí),DMA緩沖的數(shù)據(jù)打印出來(lái)全是0,不知道怎么回事?

    根據(jù)例程更改序列采樣,利用個(gè)定時(shí)器定時(shí)進(jìn)行序列采樣,自動(dòng)放入DMA緩沖區(qū),由于需要的通道和數(shù)據(jù)較多,設(shè)置緩沖區(qū)大于1024位,現(xiàn)發(fā)現(xiàn)當(dāng)我設(shè)置大于1024,例如2048位的時(shí)候,Printf()輸出
    發(fā)表于 11-13 21:31