0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Facebook發(fā)布全卷積神經(jīng)網(wǎng)絡(luò)語音識別模型,開源語音處理深度學(xué)習(xí)工具包

nlfO_thejiangme ? 來源:lq ? 2018-12-26 09:02 ? 次閱讀

語音識別領(lǐng)域先進(jìn)的神經(jīng)網(wǎng)絡(luò)一般使用rnn來構(gòu)建聲學(xué)或者語言模型,并基于特征抽取的方式來進(jìn)行抽取梅爾濾波器特征或者倒譜系數(shù)。但在最近的研究工作中,F(xiàn)acebook的研究人員提出了完全基于卷積神經(jīng)網(wǎng)絡(luò)的全卷積語音識別模型,充分利用了在聲學(xué)模型和語言模型方面的最新進(jìn)展。這一全卷積神經(jīng)網(wǎng)絡(luò)通過端到端的訓(xùn)練可以直接從原始波形預(yù)測出語言字符,移除了特征抽取的過程。同時利用一個外部的卷積語言模型來進(jìn)行單詞解碼。這一模型在多個數(shù)據(jù)集上都取得了優(yōu)異的表現(xiàn)。

模型

整個模型由四部分組成,分別是卷積前端、聲學(xué)模型、語言模型和集束搜索的解碼器(Beam-search)組成,如下圖所示。

在可學(xué)習(xí)的前端中,原始音頻首先輸入到一個寬度為2的卷積中,用于模仿梅爾濾波器特征中的前處理步驟。隨后應(yīng)用了寬度為25ms的k復(fù)卷積濾波器。隨后利用平方取絕對值并通過低通濾波器,其寬度為25ms步長為10ms。最后利用對數(shù)壓縮,并對每個通道進(jìn)行了均方歸一化。緊隨其后的是聲學(xué)模型,包含了線性門的卷積神經(jīng)網(wǎng)絡(luò),同時使用了dropout來實現(xiàn)正則化。這一模型的目的在于直接預(yù)測出字母。在隨后的語言模型中,研究人員利用了GCNN-14B,其中包含了14個卷積殘差模塊和逐漸增長的通道數(shù),并利用了線性門控單元作為激活函數(shù)。語言模型的主要目的在于為備選的句子輸出打分,這一模型允許更大的上下文。最后,基于集束搜索的解碼器用于生成最合適的句子輸出。

其工作的過程在于最大化上面的表達(dá)式。

工具

這一模型的實現(xiàn)使用了Facebook最新開源的兩個工具:其中使用了wav2letter建立聲學(xué)模型,fairseq建立了語言模型。

fairseq 原理圖

同時推出的升級版深度學(xué)習(xí)自動語音識別工具框架wav2letter++,在之前wav2letter的基礎(chǔ)上進(jìn)行和很多的改進(jìn)和優(yōu)化。

wav2letter++ 工具包架構(gòu)

這一版的工具箱由C++實現(xiàn),并利用了ArrayFire張量庫來提高了運(yùn)算效率。研究團(tuán)隊表示,在某些情況下wav2letter++在訓(xùn)練端到端的語音識別神經(jīng)網(wǎng)絡(luò)時將提速2倍。

wav2letter++ 與其他語言工具的性能比較

端到端的語音識別使得其在多語言上的大規(guī)模應(yīng)用變得可行。同時直接從原始音頻上進(jìn)行學(xué)習(xí)可以充分發(fā)揮高質(zhì)量音頻的效果。端到端的算法加上高效的工具框架,將有效促進(jìn)這一領(lǐng)域的研究,希望全卷積神經(jīng)網(wǎng)絡(luò)的語音識別和wav2letter工具為小伙伴們的研究帶來新的幫助。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴

原文標(biāo)題:新模型、新工具,F(xiàn)acebook在語音識別領(lǐng)域的新動作!

文章出處:【微信號:thejiangmen,微信公眾號:將門創(chuàng)投】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    卷積神經(jīng)網(wǎng)絡(luò)共包括哪些層級

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)是一種深度學(xué)習(xí)模型,廣泛應(yīng)用于圖像
    的頭像 發(fā)表于 07-11 15:58 ?430次閱讀

    pytorch中有神經(jīng)網(wǎng)絡(luò)模型

    處理、語音識別等領(lǐng)域取得了顯著的成果。PyTorch是一個開源深度學(xué)習(xí)框架,由
    的頭像 發(fā)表于 07-11 09:59 ?527次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的基本結(jié)構(gòu)和工作原理

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,簡稱CNN)是一種深度學(xué)習(xí)模型,廣泛應(yīng)用于圖像
    的頭像 發(fā)表于 07-03 09:38 ?252次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練的是什么

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,簡稱CNN)是一種深度學(xué)習(xí)模型,廣泛應(yīng)用于圖像
    的頭像 發(fā)表于 07-03 09:15 ?221次閱讀

    深度學(xué)習(xí)卷積神經(jīng)網(wǎng)絡(luò)的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)作為其中的重要分支,已經(jīng)在多個領(lǐng)域取得了顯著的應(yīng)用成果。從圖像
    的頭像 發(fā)表于 07-02 18:19 ?568次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的基本原理和應(yīng)用范圍

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,簡稱CNN)是一種深度學(xué)習(xí)模型,廣泛應(yīng)用于圖像
    的頭像 發(fā)表于 07-02 15:30 ?532次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的基本結(jié)構(gòu)及其功能

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,簡稱CNN)是一種深度學(xué)習(xí)模型,廣泛應(yīng)用于圖像
    的頭像 發(fā)表于 07-02 14:45 ?543次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的原理是什么

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,簡稱CNN)是一種深度學(xué)習(xí)模型,廣泛應(yīng)用于圖像
    的頭像 發(fā)表于 07-02 14:44 ?355次閱讀

    深度神經(jīng)網(wǎng)絡(luò)模型有哪些

    深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Networks,DNNs)是一類具有多個隱藏層的神經(jīng)網(wǎng)絡(luò),它們在許多領(lǐng)域取得了顯著的成功,如計算機(jī)視覺、自然語言處理、
    的頭像 發(fā)表于 07-02 10:00 ?557次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)語音識別中的應(yīng)用

    (Convolutional Neural Networks, CNN)憑借其強(qiáng)大的特征提取和學(xué)習(xí)能力,為語音識別領(lǐng)域帶來了革命性的進(jìn)步。本文將從卷積
    的頭像 發(fā)表于 07-01 16:01 ?390次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的基本結(jié)構(gòu)

    隨著大數(shù)據(jù)和計算機(jī)硬件技術(shù)的飛速發(fā)展,深度學(xué)習(xí)已成為人工智能領(lǐng)域的重要分支,而卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,簡稱CNN)作為
    的頭像 發(fā)表于 07-01 15:58 ?269次閱讀

    詳解深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)的應(yīng)用

    處理技術(shù)也可以通過深度學(xué)習(xí)來獲得更優(yōu)異的效果,比如去噪、超分辨率和跟蹤算法等。為了跟上時代的步伐,必須對深度學(xué)習(xí)
    的頭像 發(fā)表于 01-11 10:51 ?1612次閱讀
    詳解<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>、<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>與<b class='flag-5'>卷積</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的應(yīng)用

    卷積神經(jīng)網(wǎng)絡(luò)的優(yōu)點

    卷積神經(jīng)網(wǎng)絡(luò)的優(yōu)點? 卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)是一種基于深度
    的頭像 發(fā)表于 12-07 15:37 ?3764次閱讀

    離線語音識別和控制的工作原理及應(yīng)用

    神經(jīng)網(wǎng)絡(luò)(RNN)和卷積神經(jīng)網(wǎng)絡(luò)(CNN)是最常用的兩種技術(shù)。RNN 適用于處理時間序列數(shù)據(jù),如語音信號,而 CNN 則適用于
    發(fā)表于 11-07 18:01

    深度學(xué)習(xí)語音識別中的應(yīng)用及挑戰(zhàn)

    的挑戰(zhàn)。 二、深度學(xué)習(xí)語音識別中的應(yīng)用 1.基于深度神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 10-10 18:14 ?750次閱讀