0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

利用獨(dú)創(chuàng)的深度學(xué)習(xí)模型,通過對(duì)大量音樂數(shù)據(jù)的學(xué)習(xí)及訓(xùn)練寫出音樂作品

電子工程師 ? 來源:未知 ? 作者:李倩 ? 2018-08-15 09:09 ? 次閱讀

人們?cè)欢日J(rèn)為藝術(shù)是免受 AI 侵襲的最后一塊凈土,卻沒成想它很快就在這里“撒了個(gè)野”。

今年有關(guān)《中國好聲音》上熱搜的話題與對(duì)音樂本身的探討相去甚遠(yuǎn),但這不重要,我們關(guān)注的是第三期清華博士宿涵改編了周杰倫的《止戰(zhàn)之殤》和埃米納姆的作品《Rap God》收獲導(dǎo)師四轉(zhuǎn),重點(diǎn)是他用 AI 寫詞這事上了熱搜。

宿涵在節(jié)目中介紹,他的《止戰(zhàn)之殤》主歌歌詞是由 AI 寫成,當(dāng)他給機(jī)器喂了“深淵、噩夢(mèng)、絕望、戰(zhàn)爭(zhēng)”這些意象詞后,AI 就重組了一首新詞。雖然有人對(duì) AI 寫詞缺乏邏輯和“人情味”表達(dá)了不屑,但宿涵認(rèn)為 AI 會(huì)寫出‘諷刺掛滿美麗的太陽’這樣的金句,這在體現(xiàn)反戰(zhàn)主題的題材里還是很有深度的歌詞。

AI科技大本營查找這一作詞 AI 來源發(fā)現(xiàn),改編詞一欄里寫著 DeepMusic,這是一支于 2017 年 4 月加入清華大學(xué) x-lab 的 AI 團(tuán)隊(duì)的產(chǎn)品。實(shí)際上,它主要以 AI 作曲為研究方向,因?yàn)樽髟~對(duì) AI 而言可以說是小菜一碟。

根據(jù)其官網(wǎng)介紹,他們利用獨(dú)創(chuàng)的深度學(xué)習(xí)模型,通過對(duì)大量音樂數(shù)據(jù)的學(xué)習(xí)及訓(xùn)練,使得 AI 可以寫出以假亂真的音樂作品。

具體來說,他們的技術(shù)核心是層次化深度學(xué)習(xí)網(wǎng)絡(luò)結(jié)構(gòu)和生成式對(duì)抗學(xué)習(xí)方式,特點(diǎn)是可以讓生成的樂曲賦有多樣性、悅耳性及可自定義性。由此,他們可以讓即使沒有任何音樂基礎(chǔ)的用戶都能通過簡(jiǎn)單地選擇樂曲時(shí)長、風(fēng)格、演奏樂器和情緒等標(biāo)簽后,在短短數(shù)秒內(nèi)就能得到他們所需且獨(dú)創(chuàng)的個(gè)性化音樂。據(jù)其調(diào)查,在超過一萬人次的評(píng)測(cè)中,有超過 31% 的音樂被測(cè)試者認(rèn)為是人類創(chuàng)作。

DeepMusic 的長遠(yuǎn)目標(biāo)是通過進(jìn)一步訓(xùn)練生成模型使之能夠逐漸適應(yīng)不同用戶的個(gè)性化偏好,在品質(zhì)上做出能夠媲美甚至超過目前工業(yè)化水準(zhǔn)的音樂。

不光是小創(chuàng)業(yè)團(tuán)隊(duì),今年 7 月的百度 AI 開發(fā)者大會(huì)上,說唱歌手孫八一用百度“愛說唱”的智能小程序說了一段 Rap,人們只需選擇一段背景音樂,然后說出歌詞,就可自動(dòng)生成一段像模像樣的 Rap 歌曲。說能媲美專業(yè) Rapper 當(dāng)然有夸張之嫌,但你不能忽視 AI 的演化能力。

去年 5 月,當(dāng) 18 歲的微軟小冰創(chuàng)作的第一本詩集《陽光失了玻璃窗》出版時(shí),有專家聲稱小冰的詩用詞考究、有底蘊(yùn)、不口語。根據(jù)微軟去年公布的數(shù)據(jù),小冰師承 1920 年以來的 519 位中國現(xiàn)代詩人,學(xué)習(xí)了他們的上千首詩,每學(xué)習(xí)一輪需要 0.6 分鐘,經(jīng)過了 1 萬次的迭代學(xué)習(xí),100 個(gè)小時(shí)后,她獲得了創(chuàng)作現(xiàn)代詩的能力。如果讓人類把這些詩讀 1 萬遍,大約需要 100 年。

當(dāng)然,有人會(huì)質(zhì)疑人類與 AI 的思考和創(chuàng)造能力不可等量齊觀,但在某種意義上,人們對(duì) AI 和人類創(chuàng)作出相似特質(zhì)的事物又抱有復(fù)雜的情感,這種情感或恐懼或不屑一顧。

AI 卻在藝術(shù)領(lǐng)域不斷掘進(jìn)。近日,來自澳大利亞的研究人員和多倫多大學(xué)也合作開發(fā)了一套能夠?qū)懺姷?a href="http://www.ttokpm.com/v/tag/2562/" target="_blank">算法。這套 AI 不僅僅會(huì)押韻,它還會(huì)遵循詩歌規(guī)則,并考慮格律。研究人員介紹稱,這套 AI 接受了近 3000 首十四行詩的訓(xùn)練,并且算法將這些詩歌拆開然后從中學(xué)習(xí)到各個(gè)單詞之間的相互關(guān)系。在經(jīng)過大規(guī)模的訓(xùn)練之后,AI 寫出了這樣的詩:

這首詩在押韻和韻律方面能比肩人類,一般人很難看出這首詩是由 AI 寫成,不過也很難逃過專家的眼睛,因?yàn)樵谇楦斜磉_(dá)上稍顯生澀,且在語法上也存在錯(cuò)誤。

同樣也是希望用技術(shù)改造藝術(shù),在《相聲有新人》節(jié)目中一對(duì)博士夫妻選手用“公式相聲”把郭德綱說整懵了。這個(gè)所謂“有科技含量的相聲”把工程學(xué)里的有限元理論公式全部套在了相聲上,做了個(gè)“笑果預(yù)期總公式”,認(rèn)為借此復(fù)雜的運(yùn)算公式能創(chuàng)作出以顛覆傳統(tǒng)相聲的最好笑的相聲。

是的,他們認(rèn)為笑也是可計(jì)算的,所以就有相聲公式計(jì)算出“笑果”,從而來創(chuàng)作處相聲,甚至實(shí)現(xiàn)工業(yè)化的量產(chǎn)。最后的結(jié)果是,他們?cè)趯擂沃薪Y(jié)束了一場(chǎng)相聲表演,當(dāng)然,你也很難說這種失敗與那個(gè)“公式”本身到底有多大關(guān)系。因?yàn)橄矂⊙輪T多數(shù)看天分,同樣的段子,不同的人說出來的效果并不一樣。而且就計(jì)算本身來說,或許現(xiàn)在更令人容易聯(lián)想到的是,AI 是否能摻和到相聲中?

雖然相聲是一門綜合的藝術(shù),但就文本創(chuàng)作而言,如果給 AI 喂幾十萬條段子,不知道是否會(huì)編出新段子,抖新梗,如果再利用語音合成等技術(shù)做出郭德綱等相聲演員的聲音......想想微軟小冰逗你時(shí)的“鬼話”吧。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    28876

    瀏覽量

    266218
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5422

    瀏覽量

    120591

原文標(biāo)題:AI幫清華博士寫說唱歌詞晉級(jí)了,AI相聲行不行?

文章出處:【微信號(hào):rgznai100,微信公眾號(hào):rgznai100】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    如何才能高效地進(jìn)行深度學(xué)習(xí)模型訓(xùn)練

    分布式深度學(xué)習(xí)框架中,包括數(shù)據(jù)/模型切分、本地單機(jī)優(yōu)化算法訓(xùn)練、通信機(jī)制、和數(shù)據(jù)/
    的頭像 發(fā)表于 07-09 08:48 ?1.4w次閱讀
    如何才能高效地進(jìn)行<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>模型</b><b class='flag-5'>訓(xùn)練</b>?

    深度學(xué)習(xí)模型是如何創(chuàng)建的?

    到準(zhǔn)備模型,然后再在邊緣的嵌入式系統(tǒng)上運(yùn)行。訓(xùn)練深度學(xué)習(xí)模型是過程的工作量和時(shí)間密集型部分,其中通過
    發(fā)表于 10-27 06:34

    什么是深度學(xué)習(xí)?使用FPGA進(jìn)行深度學(xué)習(xí)的好處?

    類型,但經(jīng)常使用稱為準(zhǔn)確性的一種。假設(shè)將 10 張貓的圖像輸入到預(yù)訓(xùn)練模型中,其中 9 張被確定為“貓”。在這一點(diǎn)上,該模型可以說具有 90% 的準(zhǔn)確率。一般來說,你可以通過學(xué)習(xí)
    發(fā)表于 02-17 16:56

    OpenAI最新研發(fā)的MuseNet的深度神經(jīng)網(wǎng)絡(luò),可以制作4分鐘時(shí)長的音樂作品

    研究人員還創(chuàng)建了作曲家和樂器的 token,以便更好地控制 MuseNet 生成的樣本類型。訓(xùn)練期間,這些作曲家和樂器 token 將預(yù)先添加到每個(gè)樣本中,因此模型學(xué)習(xí)利用該信息進(jìn)行
    的頭像 發(fā)表于 04-29 10:27 ?3712次閱讀

    針對(duì)線性回歸模型深度學(xué)習(xí)模型,介紹了確定訓(xùn)練數(shù)據(jù)集規(guī)模的方法

    學(xué)習(xí)模型的表現(xiàn)會(huì)按照冪定律持續(xù)提升。例如,有人曾用深度學(xué)習(xí)方法對(duì)三億張圖像進(jìn)行分類,發(fā)現(xiàn)模型的表現(xiàn)隨著訓(xùn)
    的頭像 發(fā)表于 05-05 11:03 ?6005次閱讀

    基于生成式對(duì)抗網(wǎng)絡(luò)的深度文本生成模型

    近年來在線唱歌平臺(tái)作為一種新型的娛樂方式吸引了大量用戶。在在線唱歌平臺(tái)上,評(píng)論發(fā)布的音樂作品是平臺(tái)用戶之間分享和交流的一種方式,對(duì)用戶發(fā)布作品具有激勵(lì)作用。但是新用戶的作品或者新發(fā)布的
    發(fā)表于 04-12 13:47 ?15次下載
    基于生成式對(duì)抗網(wǎng)絡(luò)的<b class='flag-5'>深度</b>文本生成<b class='flag-5'>模型</b>

    基于預(yù)訓(xùn)練模型和長短期記憶網(wǎng)絡(luò)的深度學(xué)習(xí)模型

    語義槽填充是對(duì)話系統(tǒng)中一項(xiàng)非常重要的任務(wù),旨在為輸入句子的毎個(gè)單詞標(biāo)注正確的標(biāo)簽,其性能的妤壞極大地影響著后續(xù)的對(duì)話管理模塊。目前,使用深度學(xué)習(xí)方法解決該任務(wù)時(shí),一般利用隨機(jī)詞向量或者預(yù)訓(xùn)練
    發(fā)表于 04-20 14:29 ?19次下載
    基于預(yù)<b class='flag-5'>訓(xùn)練</b><b class='flag-5'>模型</b>和長短期記憶網(wǎng)絡(luò)的<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>模型</b>

    使用深度學(xué)習(xí)方法對(duì)音樂流派進(jìn)行分類

    電子發(fā)燒友網(wǎng)站提供《使用深度學(xué)習(xí)方法對(duì)音樂流派進(jìn)行分類.zip》資料免費(fèi)下載
    發(fā)表于 02-08 10:02 ?1次下載
    使用<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>方法對(duì)<b class='flag-5'>音樂</b>流派進(jìn)行分類

    模型為什么是深度學(xué)習(xí)的未來?

    與傳統(tǒng)機(jī)器學(xué)習(xí)相比,深度學(xué)習(xí)是從數(shù)據(jù)學(xué)習(xí),而大模型則是通過
    的頭像 發(fā)表于 02-16 11:32 ?1957次閱讀

    深度學(xué)習(xí)框架區(qū)分訓(xùn)練還是推理嗎

    深度學(xué)習(xí)框架區(qū)分訓(xùn)練還是推理嗎 深度學(xué)習(xí)框架是一個(gè)非常重要的技術(shù),它們能夠加速深度
    的頭像 發(fā)表于 08-17 16:03 ?1261次閱讀

    視覺深度學(xué)習(xí)遷移學(xué)習(xí)訓(xùn)練框架Torchvision介紹

    Torchvision是基于Pytorch的視覺深度學(xué)習(xí)遷移學(xué)習(xí)訓(xùn)練框架,當(dāng)前支持的圖像分類、對(duì)象檢測(cè)、實(shí)例分割、語義分割、姿態(tài)評(píng)估模型的遷
    的頭像 發(fā)表于 09-22 09:49 ?748次閱讀
    視覺<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>遷移<b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>訓(xùn)練</b>框架Torchvision介紹

    深度學(xué)習(xí)如何訓(xùn)練出好的模型

    算法工程、數(shù)據(jù)派THU深度學(xué)習(xí)在近年來得到了廣泛的應(yīng)用,從圖像識(shí)別、語音識(shí)別到自然語言處理等領(lǐng)域都有了卓越的表現(xiàn)。但是,要訓(xùn)練出一個(gè)高效準(zhǔn)確的深度
    的頭像 發(fā)表于 12-07 12:38 ?947次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>如何<b class='flag-5'>訓(xùn)練</b>出好的<b class='flag-5'>模型</b>

    如何基于深度學(xué)習(xí)模型訓(xùn)練實(shí)現(xiàn)圓檢測(cè)與圓心位置預(yù)測(cè)

    Hello大家好,今天給大家分享一下如何基于深度學(xué)習(xí)模型訓(xùn)練實(shí)現(xiàn)圓檢測(cè)與圓心位置預(yù)測(cè),主要是通過對(duì)YOLOv8姿態(tài)評(píng)估
    的頭像 發(fā)表于 12-21 10:50 ?1397次閱讀
    如何基于<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>模型</b><b class='flag-5'>訓(xùn)練</b>實(shí)現(xiàn)圓檢測(cè)與圓心位置預(yù)測(cè)

    如何基于深度學(xué)習(xí)模型訓(xùn)練實(shí)現(xiàn)工件切割點(diǎn)位置預(yù)測(cè)

    Hello大家好,今天給大家分享一下如何基于深度學(xué)習(xí)模型訓(xùn)練實(shí)現(xiàn)工件切割點(diǎn)位置預(yù)測(cè),主要是通過對(duì)YOLOv8姿態(tài)評(píng)估
    的頭像 發(fā)表于 12-22 11:07 ?606次閱讀
    如何基于<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>模型</b><b class='flag-5'>訓(xùn)練</b>實(shí)現(xiàn)工件切割點(diǎn)位置預(yù)測(cè)

    深度學(xué)習(xí)模型訓(xùn)練過程詳解

    深度學(xué)習(xí)模型訓(xùn)練是一個(gè)復(fù)雜且關(guān)鍵的過程,它涉及大量數(shù)據(jù)、計(jì)算資源和精心設(shè)計(jì)的算法。
    的頭像 發(fā)表于 07-01 16:13 ?488次閱讀