谷歌的新人工智能模型可以根据你的大脑活动生成音乐

摘要 谷歌对于使用人工智能创作音乐并不陌生,它于一月份推出了MusicLM,可以从文本生成音乐。现在,谷歌加大了赌注,正在使用人工智能来读取你...

谷歌对于使用人工智能创作音乐并不陌生,它于一月份推出了MusicLM,可以从文本生成音乐。现在,谷歌加大了赌注,正在使用人工智能来读取你的大脑,并根据你的大脑活动产生声音。

在一篇新的研究论文中,Brain2Music,谷歌使用人工智能根据功能磁共振成像(fMRI)数据所看到的大脑活动来重建音乐。

研究人员研究了从5名测试对象那里收集的功能磁共振成像数据,这些测试对象听了不同流派的相同15秒音乐片段,包括布鲁斯、古典、乡村、迪斯科、嘻哈、爵士、金属、流行、雷鬼和摇滚。

然后,他们使用这些数据训练深度神经网络,以了解大脑活动模式与音乐不同元素(例如节奏和情感)之间的关系。

经过训练,该模型可以使用MusicLM从功能磁共振成像中重建音乐。由于MusicLM从文本生成音乐,因此它有条件在语义层面上创建与原始音乐刺激相似的音乐。

在进行测试时,生成的音乐在流派、乐器、情绪等特征上与参与者最初听到的音乐刺激相似。

在研究页面的网站上,您可以收听原始音乐刺激的几个片段,并将它们与MusicLM生成的重建进行比较。结果非常令人难以置信。

其中一个片段的刺激因素是布兰妮·斯皮尔斯(BritneySpears)的标志性歌曲“哎呀!...我又做了一次”(Oops!...IDidItAgain)的15秒片段。这三幅重建作品与原作一样,本质上都是罂粟和乐观的。

当然,音频与原始音频并不相似,因为研究的重点是音乐的不同元素,而不是抒情成分。

从本质上讲,该模型可以读取您的想法(从技术上讲是您的大脑模式),以产生与您所听的音乐相似的音乐。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时候联系我们修改或删除,多谢。