人工智能生成的死亡金属永不停歇的直播给我们带来了严重的焦虑
即使死亡金属并不是最适合你的音乐流派,你也必须佩服背后的人工智能无情的双重人格? 不间断、24/7 的 YouTube 直播,制作完全由算法生成的重死亡金属。
这绝不是该频道背后的神经网络乐队 Dadabots 的一次性伎俩:在这场直播出现之前,该项目迄今为止已经制作了 10 张专辑。
我们必须承认计算机生成的声音直播的,所有破碎的歌词和疯狂的鼓点,听起来让我们感到不安。 您的里程和音乐品味可能会有所不同,但毫无疑问其背后的科学令人印象深刻。
这是音乐技术专家 CJ Carr 和 Zack Zukowski 的作品,他们多年来一直在尝试如何获得创作金属和朋克等流派的知名音乐。
“这个神经合成的早期例子是一个概念证明,说明如何可以驱动新型音乐软件,”写这对在 2018 年的一篇论文中。 “创作音乐就像指定模型训练的一组音乐影响一样简单。”
YouTube 频道背后的深度学习是根据一个名为“真实死亡金属乐队”的样本进行训练的。拱顶,来自加拿大。 这些真实的音频片段通过样本RNN神经网络尝试创建逼真的模仿。
和其他人一样人工智能驱动的模仿引擎我们已经看到,SampleRNN 足够聪明,知道它何时生成了足以被视为正版文章的音频剪辑? 因此,它知道需要调整和加强神经网络的哪一部分。
SampleRNN 可以训练的数据越多,听起来就越好? 或者更准确地说,它听起来越像它的源材料。
“在训练的早期,它发出的声音非常嘈杂、怪诞和有质感,”卡尔在现场告诉乔恩·克里斯蒂安。大纲早在 2017 年。“随着它改进训练,你开始听到越来越多的原始音乐元素。”
SampleRNN 最初是作为文本转语音生成器而开发的,但 Carr 和 Zukowski 对其进行了调整,使其也适用于音乐流派。 它实际上是在尝试根据刚刚播放的内容来预测接下来会发生什么? 有时每秒会做出数万个预测。
还可以回去纠正以前的‘错误’吗? 音频输出听起来不正常? 但这只能追溯到几百毫秒。 结果就是《无情的分身》视频。
直播背后的团队认为 Archspire 快速而激进的玩法特别适合他们的方式? 换句话说,如果它应用于不同的频段,它就不会那么现实。
“我们训练的大多数网络都发出糟糕的音乐,”卡尔告诉罗布·多齐尔母板。 “音乐汤。这些歌曲会不稳定并崩溃。不过这首很特别。”
该项目仍在继续。 如果您喜欢在 YouTube 直播中听到的内容,您可以在以下位置查看神经网络的其他作品:达达机器人网站。