0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

在語音處理中,通過使用大數(shù)據(jù)可以輕松解決很多任務(wù)

Tensorflowers ? 來源:TensorFlow ? 作者:TensorFlow ? 2020-09-23 17:56 ? 次閱讀

在語音處理中,通過使用大量數(shù)據(jù)可以輕松解決很多任務(wù)。例如,將語音轉(zhuǎn)換為文本的 自動語音識別 (Automatic Speech Recognition,ASR)。相比之下,“非語義”任務(wù)側(cè)重于語音中含義以外的其他方面,如“副語言(Paralinguistic)”任務(wù)中包含了語音情感識別等其他類型的任務(wù),例如發(fā)言者識別、語言識別和某些基于語音的醫(yī)療診斷。完成這些任務(wù)的訓(xùn)練系統(tǒng)通常利用盡可能大的數(shù)據(jù)集來確保良好結(jié)果。然而,直接依賴海量數(shù)據(jù)集的機器學(xué)習技術(shù)在小數(shù)據(jù)集上進行訓(xùn)練時往往不太成功。

為了縮小大數(shù)據(jù)集和小數(shù)據(jù)集之間的性能差距,可以在大數(shù)據(jù)集上訓(xùn)練 表征模型 (Representation Model),然后將其轉(zhuǎn)移到小數(shù)據(jù)集的環(huán)境中。表征模型能夠通過兩種方式提高性能:將高維數(shù)據(jù)(如圖像和音頻)轉(zhuǎn)換到較低維度進而訓(xùn)練小模型,而且表征模型還可以用作預(yù)訓(xùn)練。此外,如果表征模型小到可以在設(shè)備端運行或訓(xùn)練,就能讓原始數(shù)據(jù)始終保留在設(shè)備中,在為用戶提供個性化模型好處的同時,以保護隱私的方式提高性能。雖然表征學(xué)習已普遍用于文本領(lǐng)域(如 BERT和 ALBERT)和圖像領(lǐng)域(如 Inception 層 和 SimCLR),但這種方法在語音領(lǐng)域尚未得到充分利用。

下:使用大型語音數(shù)據(jù)集訓(xùn)練模型,然后將其推廣到其他環(huán)境;左上:設(shè)備端個性化 - 個性化的設(shè)備端模型將安全和隱私相結(jié)合;中上:嵌入向量的小模型 - 通用表征將高維度、少示例的數(shù)據(jù)集轉(zhuǎn)換到低維度,同時不降低準確率;較小的模型訓(xùn)練速度更快,并且經(jīng)過正則化。右上:全模型微調(diào) - 大數(shù)據(jù)集可以使用嵌入向量模型作為預(yù)訓(xùn)練以提高性能

如果沒有一個衡量“語音表征有用性”的標準基準,就很難顯著地改進通用表征,尤其是對于非語義語音任務(wù)。盡管 T5框架系統(tǒng)地評估了文本嵌入向量,并且視覺領(lǐng)域任務(wù)自適應(yīng)基準 (VTAB) 對圖像嵌入向量評估進行了標準化,兩者均促進了相應(yīng)領(lǐng)域表征學(xué)習的進展,但對于非語義語音嵌入向量卻沒有類似基準。

在“Towards Learning a Universal Non-Semantic Representation of Speech”中,我們對語音相關(guān)應(yīng)用的表征學(xué)習做出了三項努力:

提出一個比較語音表征的非語義語音 (NOn-Semantic Speech,NOSS) 基準,其中包括多樣化的數(shù)據(jù)集和基準任務(wù),例如語音情感識別、語言識別和發(fā)言者識別。這些數(shù)據(jù)集可在TensorFlow Datasets 的“音頻”部分中找到。

創(chuàng)建并開源了 TRIpLet Loss 網(wǎng)絡(luò) (TRILL),此全新模型小到可以在設(shè)備端執(zhí)行和微調(diào),同時仍然優(yōu)于其他表征模型。

進行了大規(guī)模研究來比較不同的表征,并開源了用于計算新表征性能的代碼。

Towards Learning a Universal Non-Semantic Representation of Speech
https://arxiv.org/abs/2002.12764

這些數(shù)據(jù)集
https://tensorflow.google.cn/datasets/catalog/overview#audio

TensorFlow Datasets
https://tensorflow.google.cn/datasets/

TRIpLet Loss 網(wǎng)絡(luò)
https://aihub.cloud.google.com/s?q=nonsemantic-speech-benchmark

開源
https://github.com/google-research/google-research/tree/master/non_semantic_speech_benchmark

語音嵌入向量的新基準

為了能夠有效指導(dǎo)模型開發(fā),基準必須包含具有類似解決方案的任務(wù),并排除存在顯著差異的任務(wù)。既往工作或為獨立處理各種潛在語音任務(wù),或為將語義任務(wù)和非語義任務(wù)歸納在一起。我們的工作在一定程度上通過關(guān)注在語音任務(wù)子集上表現(xiàn)良好的神經(jīng)網(wǎng)絡(luò)架構(gòu),提高了非語義語音任務(wù)的性能。

NOSS 基準的任務(wù)選擇依據(jù):

多樣性 - 需要覆蓋一系列使用案例;

復(fù)雜性 - 應(yīng)該具有挑戰(zhàn)性;

可用性,特別強調(diào)開源任務(wù)。

我們結(jié)合了具有不同規(guī)模和任務(wù)的六個數(shù)據(jù)集。

下游基準任務(wù)的數(shù)據(jù)集

*我們的研究使用根據(jù)內(nèi)部政策篩選的數(shù)據(jù)集子集計算 VoxCeleb 結(jié)果

我們還引入了三個額外的演講者內(nèi)部任務(wù),并測試個性化場景下的性能。在具有 k 個演講者的某些數(shù)據(jù)集中,我們可以創(chuàng)建 k 個不同的任務(wù),只針對單一演講者進行訓(xùn)練和測試。整體性能是各演講者的平均值。三個額外的演講者內(nèi)部任務(wù)衡量了嵌入向量適應(yīng)特定演講者的能力,這是個性化設(shè)備端模型的必要能力。隨著 ML 向智能手機物聯(lián)網(wǎng)延伸,這些模型變得越來越重要。

為了幫助研究人員比較語音嵌入向量,我們已經(jīng)將基準中的六個數(shù)據(jù)集添加到 TensorFlow Datasets 中(在“音頻”部分),并開源了評估框架。

將基準中的六個數(shù)據(jù)集添加到 TensorFlow Datasets 中
https://tensorflow.google.cn/datasets/catalog/overview#audio

開源了評估框架
https://github.com/google-research/google-research/tree/master/non_semantic_speech_benchmark

TRILL:非語義語音分類的新技術(shù)

在語音領(lǐng)域中,從一個數(shù)據(jù)集學(xué)習嵌入向量并將其應(yīng)用到其他任務(wù)不如其他模式中那樣普遍。然而,使用一項任務(wù)的數(shù)據(jù)幫助另一項任務(wù)(不一定是嵌入向量)的遷移學(xué)習,作為一種更為通用的技術(shù),具有一些引人注目的應(yīng)用,例如個性化語音識別器和少量樣本的語音模仿:文本到語音的轉(zhuǎn)換。過去已經(jīng)有多種語音表征,但其中大多是在較小規(guī)模和較低多樣性的數(shù)據(jù)上進行訓(xùn)練,或主要在語音識別上進行測試,或兩者皆有。

我們基于約 2500 小時語音的大型多樣化數(shù)據(jù)集 AudioSet 為起點,創(chuàng)建跨環(huán)境和任務(wù)的實用數(shù)據(jù)衍生語音表征。我們通過先前的度量學(xué)習工作得出簡單的自監(jiān)督標準,在此標準上訓(xùn)練嵌入向量模型 - 來自相同音頻的嵌入向量在嵌入向量空間中應(yīng)該比來自不同音頻的嵌入向量更為接近。與 BERT 和其他文本嵌入向量類似,自監(jiān)督損失函數(shù)不需要標簽,只依賴于數(shù)據(jù)本身的結(jié)構(gòu)。這種自監(jiān)督形式最適合非語義語音,因為非語義現(xiàn)象在時間上比 ASR 和其他亞秒級語音特征更穩(wěn)定。這種簡單的自監(jiān)督標準捕獲了下游任務(wù)所用的大量聲學(xué)特性。

AudioSet
https://research.google.com/audioset/

TRILL 損失:來自相同音頻的嵌入向量在嵌入空間中比來自不同音頻的嵌入向量更為接近

TRILL 架構(gòu)基于 MobileNet,其速度適合在移動設(shè)備上運行。為了在這種小架構(gòu)上實現(xiàn)高準確率,我們在不降低性能的同時從更大的 ResNet50 模型中提取出嵌入向量。

基準結(jié)果

我們首先比較了 TRILL 與其他深度學(xué)習表征的性能。這些表征并不局限于語音識別,并在類似的不同數(shù)據(jù)集上進行訓(xùn)練。此外,我們還將 TRILL 與熱門的 OpenSMILE 特征提取器進行比較。OpenSMILE 使用預(yù)深度學(xué)習技術(shù)(如:傅里葉變換系數(shù)、使用基音測量的時間序列的“基音跟蹤”等)以及隨機初始化網(wǎng)絡(luò),這些技術(shù)已被證明是強大的基線。

為了對不同性能特征的任務(wù)進行性能匯總,我們首先針對給定的任務(wù)和嵌入向量訓(xùn)練少量的簡單模型,選擇最佳結(jié)果。然后,為了了解特定嵌入向量對所有任務(wù)的影響,我們以模型和任務(wù)為解釋變量,對觀察到的精度進行了線性回歸計算。模型對準確率的影響即為回歸模型中的相關(guān)系數(shù)。對于給定任務(wù),從一種模型切換到另一種模型時,產(chǎn)生的準確率變化的差異預(yù)計為下圖中 y 值。

對模型準確率的影響

在我們的研究中,TRILL 性能優(yōu)于其他表征。TRILL 的成功在于訓(xùn)練數(shù)據(jù)集的多樣性、網(wǎng)絡(luò)的上下文大窗口以及 TRILL 訓(xùn)練損失的通用性,最后一項因素保留了大量聲學(xué)特征,而不是過早地關(guān)注特定方面。需要注意的是,來自網(wǎng)絡(luò)層的中間表征往往更具有通用性。中間表征更大,時間粒度更細,在分類網(wǎng)絡(luò)的情況下,它們保留了更通用的信息,而不像訓(xùn)練它們的類那樣具體。

通用模型的另一個優(yōu)勢是可以在新任務(wù)上初始化模型。當新任務(wù)的樣本量較小時,相較于從頭訓(xùn)練模型,對現(xiàn)有模型進行微調(diào)可能會獲得更好的結(jié)果。盡管沒有針對特定數(shù)據(jù)集進行超參數(shù)調(diào)整,但使用此技術(shù),我們?nèi)匀辉诹鶄€基準任務(wù)的三個任務(wù)上取得了新的 SOTA 結(jié)果。

為了更新的表征,我們還在Interspeech 2020 Computational Paralinguistics Challenge (ComParE) 的口罩賽道中進行了測試。在挑戰(zhàn)中,模型必須預(yù)測發(fā)言者是否佩戴口罩,因為口罩會影響語音??谡值挠绊懹袝r微乎其微,并且音頻片段只有一秒。TRILL 線性模型表現(xiàn)比基線模型更好的性能,該模型融合了許多不同模型的特征,如傳統(tǒng)的光譜和深度學(xué)習特征。

Interspeech 2020 Computational Paralinguistics Challenge (ComParE)
http://www.compare.openaudio.eu/compare2020/

基線模型
http://compare.openaudio.eu/wp-content/uploads/2020/05/INTERSPEECH_2020_ComParE.pdf

總結(jié)

評估 NOSS 的代碼位于 GitHub,數(shù)據(jù)集位于 TensorFlow Datasets,TRILL 模型位于 AI Hub。

GitHub
https://github.com/google-research/google-research/tree/master/non_semantic_speech_benchmark

TensorFlow Datasets
https://tensorflow.google.cn/datasets/catalog/overview#audio

AI Hub
https://aihub.cloud.google.com/s?q=nonsemantic-speech-benchmark

非語義語音基準可幫助研究人員創(chuàng)建語音嵌入向量,適用于包括個性化和小數(shù)據(jù)集問題的各種環(huán)境。我們將 TRILL 模型提供給研究界,作為等待超越的基線嵌入向量。

致謝

這項工作的核心團隊包括 Joel Shor、Aren Jansen、Ronnie Maor、Oran Lang、Omry Tuval、Felix de Chaumont Quitry、Marco Tagliasacchi、Ira Shavitt、Dotan Emanuel 和 Yinnon Haviv。我們還要感謝 Avinatan Hassidim 和 Yossi Matias 的技術(shù)指導(dǎo)。

原文標題:通過自監(jiān)督學(xué)習對語音表征與個性化模型進行改善

文章出處:【微信公眾號:TensorFlow】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 大數(shù)據(jù)
    +關(guān)注

    關(guān)注

    64

    文章

    8818

    瀏覽量

    137014
  • 語言識別
    +關(guān)注

    關(guān)注

    0

    文章

    15

    瀏覽量

    4805

原文標題:通過自監(jiān)督學(xué)習對語音表征與個性化模型進行改善

文章出處:【微信號:tensorflowers,微信公眾號:Tensorflowers】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    RK3588 技術(shù)分享 | Android系統(tǒng)中使用NPU實現(xiàn)Yolov5分類檢測

    隨著人工智能和大數(shù)據(jù)時代的到來,傳統(tǒng)嵌入式處理的CPU和GPU逐漸無法滿足日益增長的深度學(xué)習需求。為了應(yīng)對這一挑戰(zhàn),一些高端處理
    發(fā)表于 08-20 11:13

    FPGA人工智能的應(yīng)用有哪些?

    和安全的云計算和網(wǎng)絡(luò)服務(wù)。 三、具體應(yīng)用場景 圖像分類:圖像分類任務(wù),F(xiàn)PGA可以承擔前置處理、圖像卷積、全連接等
    發(fā)表于 07-29 17:05

    車內(nèi)語音識別數(shù)據(jù)智能駕駛的價值與應(yīng)用

    和個性化提供了有力支持。本文將詳細介紹車內(nèi)語音識別數(shù)據(jù)智能駕駛的價值、應(yīng)用以及面臨的挑戰(zhàn)和未來的發(fā)展趨勢。 二、車內(nèi)語音識別
    的頭像 發(fā)表于 02-19 11:47 ?450次閱讀

    語音數(shù)據(jù)智能駕駛的關(guān)鍵作用與應(yīng)用

    的關(guān)鍵作用、應(yīng)用、挑戰(zhàn)以及未來的發(fā)展趨勢。 二、語音數(shù)據(jù)智能駕駛的關(guān)鍵作用 訓(xùn)練與優(yōu)化:高質(zhì)量的
    的頭像 發(fā)表于 01-31 16:22 ?354次閱讀

    車內(nèi)語音識別數(shù)據(jù)智能駕駛的應(yīng)用與挑戰(zhàn)

    詳細介紹車內(nèi)語音識別數(shù)據(jù)智能駕駛的應(yīng)用、面臨的挑戰(zhàn)以及未來的發(fā)展趨勢。 二、車內(nèi)語音識別數(shù)據(jù)
    的頭像 發(fā)表于 01-26 18:14 ?986次閱讀

    語音數(shù)據(jù)智能語音助手中的應(yīng)用與挑戰(zhàn)

    。本文將詳細介紹語音數(shù)據(jù)智能語音助手中的應(yīng)用、面臨的挑戰(zhàn)以及未來的發(fā)展趨勢。 二、語音數(shù)據(jù)
    的頭像 發(fā)表于 01-18 15:46 ?301次閱讀

    語音數(shù)據(jù)智能語音搜索的應(yīng)用與挑戰(zhàn)

    一、引言 隨著互聯(lián)網(wǎng)的普及和移動設(shè)備的興起,智能語音搜索已經(jīng)成為人們獲取信息的重要方式之一。智能語音搜索通過語音交互的方式,為用戶提供更加便捷、高效的信息查詢服務(wù)。
    的頭像 發(fā)表于 01-18 15:09 ?463次閱讀

    語音數(shù)據(jù)智能客服系統(tǒng)的應(yīng)用與挑戰(zhàn)

    的效率和質(zhì)量。本文將詳細介紹語音數(shù)據(jù)智能客服系統(tǒng)的應(yīng)用、面臨的挑戰(zhàn)以及未來的發(fā)展趨勢。 二、語音數(shù)
    的頭像 發(fā)表于 12-25 09:46 ?349次閱讀

    語音數(shù)據(jù)智能語音助手中的應(yīng)用與挑戰(zhàn)

    語音合成模型。本文將詳細介紹語音數(shù)據(jù)智能語音助手中的應(yīng)用、面臨的挑戰(zhàn)以及未來的發(fā)展趨勢。 二、語音
    的頭像 發(fā)表于 12-14 15:07 ?656次閱讀

    語音數(shù)據(jù)人工智能的應(yīng)用與挑戰(zhàn)

    人工智能的應(yīng)用、面臨的挑戰(zhàn)以及未來的發(fā)展趨勢。 二、語音數(shù)據(jù)人工智能的應(yīng)用 語音識別:
    的頭像 發(fā)表于 12-14 15:00 ?524次閱讀

    MCU長耗時任務(wù)的優(yōu)化策略

    MCU 裸機開發(fā),采用分時片的方式進行多任務(wù)處理是一種常見的技術(shù)。
    的頭像 發(fā)表于 11-21 09:39 ?562次閱讀

    FreeRTOS如何在多任務(wù)訪問外設(shè)?

    FreeRTOS兩個任務(wù)需要輪流使用通過一個SPI獲取外部ADC的采集數(shù)據(jù),如何保證兩個任務(wù)
    發(fā)表于 11-10 06:23

    ZMC運動控制器多任務(wù)編程一

    、用戶多任務(wù)程序。運動控制器支持多任務(wù)編程,各任務(wù)可以獨立執(zhí)行,任務(wù)間不受影響。通過劃分
    發(fā)表于 11-07 09:52

    51怎么做到多任務(wù)處理而不干擾其他任務(wù)?

    51怎么做到多任務(wù)處理而不干擾其他任務(wù)
    發(fā)表于 10-30 06:33

    什么叫多任務(wù)系統(tǒng) FreeRTOS任務(wù)管理

    的函數(shù)完成所需的處理。有時候我們也需要中斷完成一些處理。相對于多任務(wù)系統(tǒng)而言,這個就是單任務(wù)系統(tǒng),也稱作前后臺系統(tǒng),中斷服務(wù)函數(shù)作為前臺程
    的頭像 發(fā)表于 09-28 10:56 ?561次閱讀
    什么叫<b class='flag-5'>多任務(wù)</b>系統(tǒng) FreeRTOS<b class='flag-5'>任務(wù)</b>管理