天天看點

谷歌“狂飙”生成式AI賽道,最新模型可憑文字、圖檔“創作”音樂

《科創闆日報》1月28日訊(編輯 宋子喬)在生成式AI模型的賽道上,谷歌正一路“狂飙”。繼文字生成AI模型Wordcraft、視訊生成工具Imagen Video之後,谷歌将生成式AI的應用場景擴充到了音樂圈。

當地時間1月27日,谷歌釋出了新的AI模型——MusicLM,該模型可以從文本甚至圖像中生成高保真音樂,也就是說可以把一段文字、一幅畫轉化為歌曲,且曲風多樣。

谷歌在相關論文中展示了大量案例,如輸入字幕“雷鬼和電子舞曲的融合,帶有空曠的、超凡脫俗的聲音,引發迷失在太空中的體驗,音樂的設計旨在喚起一種驚奇和敬畏的感覺,同時又适合跳舞”,MusicLM便生成了30秒的電子音樂。

谷歌“狂飙”生成式AI賽道,最新模型可憑文字、圖檔“創作”音樂

又如以世界名畫《跨越阿爾卑斯山聖伯納隘口的拿破侖》為“題”,MusicLM生成的音樂莊重典雅,将冬日的淩厲肅殺和英雄主義色彩展現地淋漓盡緻。寫實油畫之外,《舞蹈》《呐喊》《格爾尼卡》《星空》等抽象派畫作均可為題。

谷歌“狂飙”生成式AI賽道,最新模型可憑文字、圖檔“創作”音樂
谷歌“狂飙”生成式AI賽道,最新模型可憑文字、圖檔“創作”音樂

MusicLM甚至來個音樂串燒,在故事模式下将不同風格的曲子混雜在一起。即便要求生成5分鐘時長的音樂,MusicLM也不在話下。

谷歌“狂飙”生成式AI賽道,最新模型可憑文字、圖檔“創作”音樂

另外,MusicLM具備強大的輔助功能,可以規定具體的樂器、地點、流派、年代、音樂家演奏水準等,對生成的音樂品質進行調整,進而讓一段曲子幻化出多個版本。

MusicLM并非第一個生成歌曲的AI模型,同類型産品包括Riffusion、Dance Diffusion等,谷歌自己也釋出過AudioML,時下最熱門的聊天機器人“ChatGPT”的研發者OpenAI則推出過Jukebox。

MusicLM有何獨到之處?

它其實是一個分層的序列到序列(Sequence-to-Sequence)模型。根據人工智能科學家Keunwoo Choi的說法,MusicLM結合了MuLan+AudioLM和MuLan+w2b-Bert+Soundstream等多個模型,可謂集大成者。

其中,AudioLM模型可視作MusicLM的前身,MusicLM就是利用了AudioLM的多階段自回歸模組化作為生成條件,可以通過文本描述,以24kHz的頻率生成音樂,并在幾分鐘内保持這個頻率。

相較而言,MusicLM的訓練資料更多。研究團隊引入了首個專門為文本-音樂生成任務評估資料MusicCaps來解決任務缺乏評估資料的問題。MusicCaps由專業人士共建,涵蓋5500個音樂-文本對。

基于此,谷歌用280000小時的音樂資料集訓練出了MusicLM。

谷歌的實驗表明,MusicLM在音頻品質和對文本描述的遵守方面都優于以前的模型。

不過,MusicLM也有着所有生成式AI共同的風險——技術不完善、素材侵權、道德争議等。

對于技術問題,比方說當要求MusicLM生成人聲時,技術上可行,但效果不佳,歌詞亂七八糟、意義不明的情況時有發生。MusicLM也會“偷懶”——起生成的音樂中,約有1%直接從訓練集的歌曲中複制。

另外,由AI系統生成的音樂到底算不算原創作品?可以受到版權保護嗎?能不能和“人造音樂”同台競技?相關争議始終未有一緻見解。

這些都是谷歌沒有對外釋出MusicLM的原因。“我們承認該模型有盜用創意内容的潛在風險,我們強調,需要在未來開展更多工作來應對這些與音樂生成相關的風險。”谷歌釋出的論文寫道。

繼續閱讀