0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

借助深度學(xué)習(xí)算法實現(xiàn)5秒內(nèi)克隆你的聲音

Android編程精選 ? 來源:開源前線整理 ? 作者:開源前線整理 ? 2021-09-29 11:45 ? 次閱讀

大家應(yīng)該都知道聲音克隆技術(shù),通俗的來說就是借助深度學(xué)習(xí)算法,可以完全模擬某個人的聲音,而且由機器合成的語音連情緒都能夠完美表達出來,基本可以以假亂真,只要不見面,你根本就察覺不出來向你發(fā)出聲音的知識一個機器。

語音克隆最大的創(chuàng)新之一是減少創(chuàng)建語音所需的原始數(shù)據(jù)量。過去,該系統(tǒng)需要數(shù)十甚至數(shù)百小時的音頻。但是,今天猿妹要和大家分享的這個工具5秒鐘就可以克隆成功,這個工具名叫——MockingBird。

MockingBird已經(jīng)登上Github熱榜,收獲3.5K的Star,累計分支 303(Github地址:https://github.com/babysor/MockingBird)

MockingBird具有如下特性:

支持普通話并使用多種中文數(shù)據(jù)集進行測試

適用于 pytorch,已在 1.9.0 版本(最新于 2021 年 8 月)中測試,GPU Tesla T4 和 GTX 2060

支持 Windows + Linux

僅使用新訓(xùn)練的合成器(synthesizer)就有良好效果,復(fù)用預(yù)訓(xùn)練的編碼器/聲碼器

MockingBird如何使用

MockingBird的安裝要求如下:

首先,MockingBird需要Python 3.7 或更高版本

安裝 PyTorch

安裝 ffmpeg。

運行pip install -r requirements.txt 來安裝剩余的必要包。

安裝 webrtcvad 用 pip install webrtcvad-wheels。

接著,你需要使用數(shù)據(jù)集訓(xùn)練合成器:

下載 數(shù)據(jù)集并解壓:確保您可以訪問 train 文件夾中的所有音頻文件(如.wav)

使用音頻和梅爾頻譜圖進行預(yù)處理:python synthesizer_preprocess_audio.py 《datasets_root》 可以傳入參數(shù) --dataset {dataset} 支持 adatatang_200zh, magicdata, aishell3

預(yù)處理嵌入:python synthesizer_preprocess_embeds.py 《datasets_root》/SV2TTS/synthesizer

訓(xùn)練合成器:python synthesizer_train.py mandarin 《datasets_root》/SV2TTS/synthesizer

當(dāng)你在訓(xùn)練文件夾 synthesizer/saved_models/ 中看到注意線顯示和損失滿足您的需要時,請轉(zhuǎn)到下一步。

使用預(yù)先訓(xùn)練好的合成器,如果沒有設(shè)備或者不想慢慢調(diào)試,可以使用網(wǎng)友貢獻的模型。

訓(xùn)練聲碼器

預(yù)處理數(shù)據(jù): python vocoder_preprocess.py 《datasets_root》

訓(xùn)練聲碼器: python vocoder_train.py mandarin 《datasets_root》

啟動工具箱

然后你可以嘗試使用工具箱:python demo_toolbox.py -d 《datasets_root》

責(zé)任編輯:haq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 開源
    +關(guān)注

    關(guān)注

    3

    文章

    3218

    瀏覽量

    42329
  • 克隆
    +關(guān)注

    關(guān)注

    0

    文章

    22

    瀏覽量

    7782
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5466

    瀏覽量

    120891

原文標(biāo)題:5秒內(nèi)克隆你的聲音,并生成任何內(nèi)容,這個工具細(xì)思極恐...還特么的開源~

文章出處:【微信號:AndroidPush,微信公眾號:Android編程精選】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    AI大模型與深度學(xué)習(xí)的關(guān)系

    人類的學(xué)習(xí)過程,實現(xiàn)對復(fù)雜數(shù)據(jù)的學(xué)習(xí)和識別。AI大模型則是指模型的參數(shù)數(shù)量巨大,需要龐大的計算資源來進行訓(xùn)練和推理。深度學(xué)習(xí)
    的頭像 發(fā)表于 10-23 15:25 ?308次閱讀

    FPGA做深度學(xué)習(xí)能走多遠(yuǎn)?

    。FPGA的優(yōu)勢就是可編程可配置,邏輯資源多,功耗低,而且賽靈思等都在極力推廣。不知道用FPGA做深度學(xué)習(xí)未來會怎樣發(fā)展,能走多遠(yuǎn),怎么看。 A:FPGA 在深度
    發(fā)表于 09-27 20:53

    深度識別算法包括哪些內(nèi)容

    :CNN是深度學(xué)習(xí)中處理圖像和視頻等具有網(wǎng)格結(jié)構(gòu)數(shù)據(jù)的主要算法。它通過卷積層、池化層和全連接層等組件,實現(xiàn)對圖像特征的自動提取和識別。 應(yīng)用領(lǐng)域 :CNN在圖像識別、目標(biāo)檢測、視頻分
    的頭像 發(fā)表于 09-10 15:28 ?265次閱讀

    深度學(xué)習(xí)算法在嵌入式平臺上的部署

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)算法在各個領(lǐng)域的應(yīng)用日益廣泛。然而,將深度學(xué)習(xí)算法部署到資源
    的頭像 發(fā)表于 07-15 10:03 ?1104次閱讀

    深度學(xué)習(xí)算法在集成電路測試中的應(yīng)用

    隨著半導(dǎo)體技術(shù)的快速發(fā)展,集成電路(IC)的復(fù)雜性和集成度不斷提高,對測試技術(shù)的要求也日益增加。深度學(xué)習(xí)算法作為一種強大的數(shù)據(jù)處理和模式識別工具,在集成電路測試領(lǐng)域展現(xiàn)出了巨大的應(yīng)用潛力。本文將從
    的頭像 發(fā)表于 07-15 09:48 ?719次閱讀

    利用Matlab函數(shù)實現(xiàn)深度學(xué)習(xí)算法

    在Matlab中實現(xiàn)深度學(xué)習(xí)算法是一個復(fù)雜但強大的過程,可以應(yīng)用于各種領(lǐng)域,如圖像識別、自然語言處理、時間序列預(yù)測等。這里,我將概述一個基本的流程,包括環(huán)境設(shè)置、數(shù)據(jù)準(zhǔn)備、模型設(shè)計、訓(xùn)
    的頭像 發(fā)表于 07-14 14:21 ?1801次閱讀

    深度學(xué)習(xí)中的無監(jiān)督學(xué)習(xí)方法綜述

    應(yīng)用中往往難以實現(xiàn)。因此,無監(jiān)督學(xué)習(xí)深度學(xué)習(xí)中扮演著越來越重要的角色。本文旨在綜述深度學(xué)習(xí)中的
    的頭像 發(fā)表于 07-09 10:50 ?388次閱讀

    深度學(xué)習(xí)的基本原理與核心算法

    處理、語音識別等領(lǐng)域取得了革命性的突破。本文將詳細(xì)闡述深度學(xué)習(xí)的原理、核心算法以及實現(xiàn)方式,并通過一個具體的代碼實例進行說明。
    的頭像 發(fā)表于 07-04 11:44 ?1555次閱讀

    深度學(xué)習(xí)模型訓(xùn)練過程詳解

    深度學(xué)習(xí)模型訓(xùn)練是一個復(fù)雜且關(guān)鍵的過程,它涉及大量的數(shù)據(jù)、計算資源和精心設(shè)計的算法。訓(xùn)練一個深度學(xué)習(xí)模型,本質(zhì)上是通過優(yōu)化
    的頭像 發(fā)表于 07-01 16:13 ?1023次閱讀

    基于深度學(xué)習(xí)的鳥類聲音識別系統(tǒng)

    具體的軟硬件實現(xiàn)點擊http://mcu-ai.com/MCU-AI技術(shù)網(wǎng)頁_MCU-AI 鳥叫聲識別在鳥類保護中具有重要意義。通過適當(dāng)?shù)?b class='flag-5'>聲音分類,研究可以自動預(yù)測該地區(qū)的生活質(zhì)量。如今,深度
    發(fā)表于 05-30 20:30

    深度解析深度學(xué)習(xí)下的語義SLAM

    隨著深度學(xué)習(xí)技術(shù)的興起,計算機視覺的許多傳統(tǒng)領(lǐng)域都取得了突破性進展,例如目標(biāo)的檢測、識別和分類等領(lǐng)域。近年來,研究人員開始在視覺SLAM算法中引入深度
    發(fā)表于 04-23 17:18 ?1227次閱讀
    <b class='flag-5'>深度</b>解析<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>下的語義SLAM

    【技術(shù)科普】主流的深度學(xué)習(xí)模型有哪些?AI開發(fā)工程師必備!

    深度學(xué)習(xí)在科學(xué)計算中獲得了廣泛的普及,其算法被廣泛用于解決復(fù)雜問題的行業(yè)。所有深度學(xué)習(xí)算法都使用
    的頭像 發(fā)表于 01-30 15:26 ?564次閱讀
    【技術(shù)科普】主流的<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>模型有哪些?AI開發(fā)工程師必備!

    目前主流的深度學(xué)習(xí)算法模型和應(yīng)用案例

    深度學(xué)習(xí)在科學(xué)計算中獲得了廣泛的普及,其算法被廣泛用于解決復(fù)雜問題的行業(yè)。所有深度學(xué)習(xí)算法都使用
    的頭像 發(fā)表于 01-03 10:28 ?1655次閱讀
    目前主流的<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>算法</b>模型和應(yīng)用案例

    深度學(xué)習(xí)在人工智能中的 8 種常見應(yīng)用

    ,徹底改變了人工智能。人腦的結(jié)構(gòu)和操作啟發(fā)了這些算法。覺得怎么樣?人工智能(AI)中有哪些典型的深度學(xué)習(xí)應(yīng)用?深度
    的頭像 發(fā)表于 12-01 08:27 ?3194次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>在人工智能中的 8 種常見應(yīng)用

    在語音時代,聲音深度假音如何分辨?

    聲音深度假音的創(chuàng)造植根于復(fù)雜的人工智能系統(tǒng),尤其是自動編碼器,它可以捕捉和復(fù)制人類語言的微妙之處。這些系統(tǒng)不只是克隆聲音;他們分析和重現(xiàn)情感變化和特定的語調(diào),使每個
    的頭像 發(fā)表于 11-14 16:04 ?664次閱讀