0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線(xiàn)課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

利用獨(dú)創(chuàng)的深度學(xué)習(xí)模型,通過(guò)對(duì)大量音樂(lè)數(shù)據(jù)的學(xué)習(xí)及訓(xùn)練寫(xiě)出音樂(lè)作品

電子工程師 ? 來(lái)源:未知 ? 作者:李倩 ? 2018-08-15 09:09 ? 次閱讀

人們?cè)欢日J(rèn)為藝術(shù)是免受 AI 侵襲的最后一塊凈土,卻沒(méi)成想它很快就在這里“撒了個(gè)野”。

今年有關(guān)《中國(guó)好聲音》上熱搜的話(huà)題與對(duì)音樂(lè)本身的探討相去甚遠(yuǎn),但這不重要,我們關(guān)注的是第三期清華博士宿涵改編了周杰倫的《止戰(zhàn)之殤》和埃米納姆的作品《Rap God》收獲導(dǎo)師四轉(zhuǎn),重點(diǎn)是他用 AI 寫(xiě)詞這事上了熱搜。

宿涵在節(jié)目中介紹,他的《止戰(zhàn)之殤》主歌歌詞是由 AI 寫(xiě)成,當(dāng)他給機(jī)器喂了“深淵、噩夢(mèng)、絕望、戰(zhàn)爭(zhēng)”這些意象詞后,AI 就重組了一首新詞。雖然有人對(duì) AI 寫(xiě)詞缺乏邏輯和“人情味”表達(dá)了不屑,但宿涵認(rèn)為 AI 會(huì)寫(xiě)出‘諷刺掛滿(mǎn)美麗的太陽(yáng)’這樣的金句,這在體現(xiàn)反戰(zhàn)主題的題材里還是很有深度的歌詞。

AI科技大本營(yíng)查找這一作詞 AI 來(lái)源發(fā)現(xiàn),改編詞一欄里寫(xiě)著 DeepMusic,這是一支于 2017 年 4 月加入清華大學(xué) x-lab 的 AI 團(tuán)隊(duì)的產(chǎn)品。實(shí)際上,它主要以 AI 作曲為研究方向,因?yàn)樽髟~對(duì) AI 而言可以說(shuō)是小菜一碟。

根據(jù)其官網(wǎng)介紹,他們利用獨(dú)創(chuàng)的深度學(xué)習(xí)模型,通過(guò)對(duì)大量音樂(lè)數(shù)據(jù)的學(xué)習(xí)及訓(xùn)練,使得 AI 可以寫(xiě)出以假亂真的音樂(lè)作品。

具體來(lái)說(shuō),他們的技術(shù)核心是層次化深度學(xué)習(xí)網(wǎng)絡(luò)結(jié)構(gòu)和生成式對(duì)抗學(xué)習(xí)方式,特點(diǎn)是可以讓生成的樂(lè)曲賦有多樣性、悅耳性及可自定義性。由此,他們可以讓即使沒(méi)有任何音樂(lè)基礎(chǔ)的用戶(hù)都能通過(guò)簡(jiǎn)單地選擇樂(lè)曲時(shí)長(zhǎng)、風(fēng)格、演奏樂(lè)器和情緒等標(biāo)簽后,在短短數(shù)秒內(nèi)就能得到他們所需且獨(dú)創(chuàng)的個(gè)性化音樂(lè)。據(jù)其調(diào)查,在超過(guò)一萬(wàn)人次的評(píng)測(cè)中,有超過(guò) 31% 的音樂(lè)被測(cè)試者認(rèn)為是人類(lèi)創(chuàng)作。

DeepMusic 的長(zhǎng)遠(yuǎn)目標(biāo)是通過(guò)進(jìn)一步訓(xùn)練生成模型使之能夠逐漸適應(yīng)不同用戶(hù)的個(gè)性化偏好,在品質(zhì)上做出能夠媲美甚至超過(guò)目前工業(yè)化水準(zhǔn)的音樂(lè)。

不光是小創(chuàng)業(yè)團(tuán)隊(duì),今年 7 月的百度 AI 開(kāi)發(fā)者大會(huì)上,說(shuō)唱歌手孫八一用百度“愛(ài)說(shuō)唱”的智能小程序說(shuō)了一段 Rap,人們只需選擇一段背景音樂(lè),然后說(shuō)出歌詞,就可自動(dòng)生成一段像模像樣的 Rap 歌曲。說(shuō)能媲美專(zhuān)業(yè) Rapper 當(dāng)然有夸張之嫌,但你不能忽視 AI 的演化能力。

去年 5 月,當(dāng) 18 歲的微軟小冰創(chuàng)作的第一本詩(shī)集《陽(yáng)光失了玻璃窗》出版時(shí),有專(zhuān)家聲稱(chēng)小冰的詩(shī)用詞考究、有底蘊(yùn)、不口語(yǔ)。根據(jù)微軟去年公布的數(shù)據(jù),小冰師承 1920 年以來(lái)的 519 位中國(guó)現(xiàn)代詩(shī)人,學(xué)習(xí)了他們的上千首詩(shī),每學(xué)習(xí)一輪需要 0.6 分鐘,經(jīng)過(guò)了 1 萬(wàn)次的迭代學(xué)習(xí),100 個(gè)小時(shí)后,她獲得了創(chuàng)作現(xiàn)代詩(shī)的能力。如果讓人類(lèi)把這些詩(shī)讀 1 萬(wàn)遍,大約需要 100 年。

當(dāng)然,有人會(huì)質(zhì)疑人類(lèi)與 AI 的思考和創(chuàng)造能力不可等量齊觀,但在某種意義上,人們對(duì) AI 和人類(lèi)創(chuàng)作出相似特質(zhì)的事物又抱有復(fù)雜的情感,這種情感或恐懼或不屑一顧。

AI 卻在藝術(shù)領(lǐng)域不斷掘進(jìn)。近日,來(lái)自澳大利亞的研究人員和多倫多大學(xué)也合作開(kāi)發(fā)了一套能夠?qū)懺?shī)的算法。這套 AI 不僅僅會(huì)押韻,它還會(huì)遵循詩(shī)歌規(guī)則,并考慮格律。研究人員介紹稱(chēng),這套 AI 接受了近 3000 首十四行詩(shī)的訓(xùn)練,并且算法將這些詩(shī)歌拆開(kāi)然后從中學(xué)習(xí)到各個(gè)單詞之間的相互關(guān)系。在經(jīng)過(guò)大規(guī)模的訓(xùn)練之后,AI 寫(xiě)出了這樣的詩(shī):

這首詩(shī)在押韻和韻律方面能比肩人類(lèi),一般人很難看出這首詩(shī)是由 AI 寫(xiě)成,不過(guò)也很難逃過(guò)專(zhuān)家的眼睛,因?yàn)樵谇楦斜磉_(dá)上稍顯生澀,且在語(yǔ)法上也存在錯(cuò)誤。

同樣也是希望用技術(shù)改造藝術(shù),在《相聲有新人》節(jié)目中一對(duì)博士夫妻選手用“公式相聲”把郭德綱說(shuō)整懵了。這個(gè)所謂“有科技含量的相聲”把工程學(xué)里的有限元理論公式全部套在了相聲上,做了個(gè)“笑果預(yù)期總公式”,認(rèn)為借此復(fù)雜的運(yùn)算公式能創(chuàng)作出以顛覆傳統(tǒng)相聲的最好笑的相聲。

是的,他們認(rèn)為笑也是可計(jì)算的,所以就有相聲公式計(jì)算出“笑果”,從而來(lái)創(chuàng)作處相聲,甚至實(shí)現(xiàn)工業(yè)化的量產(chǎn)。最后的結(jié)果是,他們?cè)趯擂沃薪Y(jié)束了一場(chǎng)相聲表演,當(dāng)然,你也很難說(shuō)這種失敗與那個(gè)“公式”本身到底有多大關(guān)系。因?yàn)橄矂⊙輪T多數(shù)看天分,同樣的段子,不同的人說(shuō)出來(lái)的效果并不一樣。而且就計(jì)算本身來(lái)說(shuō),或許現(xiàn)在更令人容易聯(lián)想到的是,AI 是否能摻和到相聲中?

雖然相聲是一門(mén)綜合的藝術(shù),但就文本創(chuàng)作而言,如果給 AI 喂幾十萬(wàn)條段子,不知道是否會(huì)編出新段子,抖新梗,如果再利用語(yǔ)音合成等技術(shù)做出郭德綱等相聲演員的聲音......想想微軟小冰逗你時(shí)的“鬼話(huà)”吧。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    33711

    瀏覽量

    274469
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5549

    瀏覽量

    122360

原文標(biāo)題:AI幫清華博士寫(xiě)說(shuō)唱歌詞晉級(jí)了,AI相聲行不行?

文章出處:【微信號(hào):rgznai100,微信公眾號(hào):rgznai100】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    如何才能高效地進(jìn)行深度學(xué)習(xí)模型訓(xùn)練?

    分布式深度學(xué)習(xí)框架中,包括數(shù)據(jù)/模型切分、本地單機(jī)優(yōu)化算法訓(xùn)練、通信機(jī)制、和數(shù)據(jù)/
    的頭像 發(fā)表于 07-09 08:48 ?1.4w次閱讀
    如何才能高效地進(jìn)行<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>模型</b><b class='flag-5'>訓(xùn)練</b>?

    深度學(xué)習(xí)模型是如何創(chuàng)建的?

    到準(zhǔn)備模型,然后再在邊緣的嵌入式系統(tǒng)上運(yùn)行。訓(xùn)練深度學(xué)習(xí)模型是過(guò)程的工作量和時(shí)間密集型部分,其中通過(guò)
    發(fā)表于 10-27 06:34

    什么是深度學(xué)習(xí)?使用FPGA進(jìn)行深度學(xué)習(xí)的好處?

    類(lèi)型,但經(jīng)常使用稱(chēng)為準(zhǔn)確性的一種。假設(shè)將 10 張貓的圖像輸入到預(yù)訓(xùn)練模型中,其中 9 張被確定為“貓”。在這一點(diǎn)上,該模型可以說(shuō)具有 90% 的準(zhǔn)確率。一般來(lái)說(shuō),你可以通過(guò)學(xué)習(xí)
    發(fā)表于 02-17 16:56

    OpenAI最新研發(fā)的MuseNet的深度神經(jīng)網(wǎng)絡(luò),可以制作4分鐘時(shí)長(zhǎng)的音樂(lè)作品

    研究人員還創(chuàng)建了作曲家和樂(lè)器的 token,以便更好地控制 MuseNet 生成的樣本類(lèi)型。訓(xùn)練期間,這些作曲家和樂(lè)器 token 將預(yù)先添加到每個(gè)樣本中,因此模型學(xué)習(xí)利用該信息進(jìn)行
    的頭像 發(fā)表于 04-29 10:27 ?4189次閱讀

    針對(duì)線(xiàn)性回歸模型深度學(xué)習(xí)模型,介紹了確定訓(xùn)練數(shù)據(jù)集規(guī)模的方法

    學(xué)習(xí)模型的表現(xiàn)會(huì)按照冪定律持續(xù)提升。例如,有人曾用深度學(xué)習(xí)方法對(duì)三億張圖像進(jìn)行分類(lèi),發(fā)現(xiàn)模型的表現(xiàn)隨著訓(xùn)
    的頭像 發(fā)表于 05-05 11:03 ?6465次閱讀

    基于生成式對(duì)抗網(wǎng)絡(luò)的深度文本生成模型

    近年來(lái)在線(xiàn)唱歌平臺(tái)作為一種新型的娛樂(lè)方式吸引了大量用戶(hù)。在在線(xiàn)唱歌平臺(tái)上,評(píng)論發(fā)布的音樂(lè)作品是平臺(tái)用戶(hù)之間分享和交流的一種方式,對(duì)用戶(hù)發(fā)布作品具有激勵(lì)作用。但是新用戶(hù)的作品或者新發(fā)布的
    發(fā)表于 04-12 13:47 ?15次下載
    基于生成式對(duì)抗網(wǎng)絡(luò)的<b class='flag-5'>深度</b>文本生成<b class='flag-5'>模型</b>

    基于預(yù)訓(xùn)練模型和長(zhǎng)短期記憶網(wǎng)絡(luò)的深度學(xué)習(xí)模型

    語(yǔ)義槽填充是對(duì)話(huà)系統(tǒng)中一項(xiàng)非常重要的任務(wù),旨在為輸入句子的毎個(gè)單詞標(biāo)注正確的標(biāo)簽,其性能的妤壞極大地影響著后續(xù)的對(duì)話(huà)管理模塊。目前,使用深度學(xué)習(xí)方法解決該任務(wù)時(shí),一般利用隨機(jī)詞向量或者預(yù)訓(xùn)練
    發(fā)表于 04-20 14:29 ?19次下載
    基于預(yù)<b class='flag-5'>訓(xùn)練</b><b class='flag-5'>模型</b>和長(zhǎng)短期記憶網(wǎng)絡(luò)的<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>模型</b>

    使用深度學(xué)習(xí)方法對(duì)音樂(lè)流派進(jìn)行分類(lèi)

    電子發(fā)燒友網(wǎng)站提供《使用深度學(xué)習(xí)方法對(duì)音樂(lè)流派進(jìn)行分類(lèi).zip》資料免費(fèi)下載
    發(fā)表于 02-08 10:02 ?1次下載
    使用<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>方法對(duì)<b class='flag-5'>音樂(lè)</b>流派進(jìn)行分類(lèi)

    模型為什么是深度學(xué)習(xí)的未來(lái)?

    與傳統(tǒng)機(jī)器學(xué)習(xí)相比,深度學(xué)習(xí)是從數(shù)據(jù)學(xué)習(xí),而大模型則是通過(guò)
    的頭像 發(fā)表于 02-16 11:32 ?2290次閱讀

    深度學(xué)習(xí)框架區(qū)分訓(xùn)練還是推理嗎

    深度學(xué)習(xí)框架區(qū)分訓(xùn)練還是推理嗎 深度學(xué)習(xí)框架是一個(gè)非常重要的技術(shù),它們能夠加速深度
    的頭像 發(fā)表于 08-17 16:03 ?1630次閱讀

    視覺(jué)深度學(xué)習(xí)遷移學(xué)習(xí)訓(xùn)練框架Torchvision介紹

    Torchvision是基于Pytorch的視覺(jué)深度學(xué)習(xí)遷移學(xué)習(xí)訓(xùn)練框架,當(dāng)前支持的圖像分類(lèi)、對(duì)象檢測(cè)、實(shí)例分割、語(yǔ)義分割、姿態(tài)評(píng)估模型的遷
    的頭像 發(fā)表于 09-22 09:49 ?1138次閱讀
    視覺(jué)<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>遷移<b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>訓(xùn)練</b>框架Torchvision介紹

    深度學(xué)習(xí)如何訓(xùn)練出好的模型

    算法工程、數(shù)據(jù)派THU深度學(xué)習(xí)在近年來(lái)得到了廣泛的應(yīng)用,從圖像識(shí)別、語(yǔ)音識(shí)別到自然語(yǔ)言處理等領(lǐng)域都有了卓越的表現(xiàn)。但是,要訓(xùn)練出一個(gè)高效準(zhǔn)確的深度
    的頭像 發(fā)表于 12-07 12:38 ?1383次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>如何<b class='flag-5'>訓(xùn)練</b>出好的<b class='flag-5'>模型</b>

    如何基于深度學(xué)習(xí)模型訓(xùn)練實(shí)現(xiàn)圓檢測(cè)與圓心位置預(yù)測(cè)

    Hello大家好,今天給大家分享一下如何基于深度學(xué)習(xí)模型訓(xùn)練實(shí)現(xiàn)圓檢測(cè)與圓心位置預(yù)測(cè),主要是通過(guò)對(duì)YOLOv8姿態(tài)評(píng)估
    的頭像 發(fā)表于 12-21 10:50 ?2634次閱讀
    如何基于<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>模型</b><b class='flag-5'>訓(xùn)練</b>實(shí)現(xiàn)圓檢測(cè)與圓心位置預(yù)測(cè)

    深度學(xué)習(xí)模型訓(xùn)練過(guò)程詳解

    深度學(xué)習(xí)模型訓(xùn)練是一個(gè)復(fù)雜且關(guān)鍵的過(guò)程,它涉及大量數(shù)據(jù)、計(jì)算資源和精心設(shè)計(jì)的算法。
    的頭像 發(fā)表于 07-01 16:13 ?2206次閱讀

    AI大模型深度學(xué)習(xí)的關(guān)系

    人類(lèi)的學(xué)習(xí)過(guò)程,實(shí)現(xiàn)對(duì)復(fù)雜數(shù)據(jù)學(xué)習(xí)和識(shí)別。AI大模型則是指模型的參數(shù)數(shù)量巨大,需要龐大的計(jì)算資源來(lái)進(jìn)行
    的頭像 發(fā)表于 10-23 15:25 ?2488次閱讀

    電子發(fā)燒友

    中國(guó)電子工程師最喜歡的網(wǎng)站

    • 2931785位工程師會(huì)員交流學(xué)習(xí)
    • 獲取您個(gè)性化的科技前沿技術(shù)信息
    • 參加活動(dòng)獲取豐厚的禮品