Meta 刚刚揭开了新人工智能的面纱:音乐生成器。作为聊天GPT、Google Bard 或 Anthropic 的 Claude,这个 AI 是基于语言模型的。 Meta 研究人员依赖于类型模型变压器。这是一种深度学习模型,是人工智能的主要基础之一,旨在吞噬大量信息。根据提取的数据,模型可以独立生成自己的内容。
关于 Meta 的新人工智能 MusicGen,您需要了解的一切
借助这个模型,人工智能能够在几秒钟内生成一段简短的音乐曲目。要从头开始创建曲目,用户只需描述他想要什么用一个简短的句子。特别是,建议描述您正在寻找的音乐类型,包括要放置的乐器并指定曲目应激发听众的情感。您可以通过向 AI 提供示例音轨或要求它使用已知的旋律作为灵感来指导它。
为了训练人工智能,Meta 研究人员使用了一个数据库,该数据库由20,000 小时的音乐根据许可。 Github 上的 Meta 解释说,该模型实际上充满了来自内部语料库、Shutterstock 甚至 Pond5 等网站的内容。
Meta 工程师随后测试了该模型的多个版本。他们开发了四种不同尺寸的变体,使模型可以在低性能计算机上运行。第一个版本限制为 3 亿个参数,强调速度和可移植性,但牺牲了精度。
第二次迭代增加到 15 亿个参数。正是这个版本获得了测试者最好的反馈。第三个变体包括 33 亿,这与市场上已有的其他人工智能模型相去甚远,包括 Palm(5400 亿)、LaMDA(1370 亿)甚至 GPT-3(1750 亿)。事实证明,正是这种更加雄伟的模型是最精确的。音轨始终非常接近书面描述。最后,开发了第四种模型,称为 Melody。它支持 15 亿个参数,并允许您向 AI 提供音频文件以帮助其制作音乐。
如何使用 MusicGen 生成音乐?
如果您想测试 MusicGen,只需访问 Meta 在线发布的免费演示即可。在访问之前,您需要在板状拥抱脸,完全致力于人工智能。该过程只需几秒钟。
然后,您需要描述您想要创作的音乐。请注意,该算法适用于英语和法语。输入您的描述后,AI 将生成十二秒的曲目这符合您的要求。与往常一样,初始查询的相关性决定了所生成内容的质量。您花越多时间通过编写清晰的说明来校准您的要求,音乐就会越接近您的想法。然后您可以将曲目下载到您的计算机上。
在我们的测试中,我们获得了令人信服的结果,尽管有些赛道相当混乱。一般来说,模型能够正确理解并遵守指令。包括所要求的物品,例如仪器。另一方面,整体有时非常缺乏和谐。让我们记住,这仍然只是一个演示。
一如既往,Meta 使整个 MusicGen 代码可以免费访问。这种开源方法应该能够刺激研究关于人工智能。马克扎克伯格的团队已经做到了这一点骆驼,大型语言模型元人工智能,其主要语言模型。迅速地被开发商采用,该模型已被用来设计大量不同的聊天机器人,包括未经审查的替代方案。
人工智能生成音乐的浪潮
这并不是第一个承诺将任何互联网用户转变为作曲家的人工智能。一月份,谷歌推出 MusicLM。镜像 MusicGen,这个模型可以通过 Google Labs 进行实验性访问,可以将文本转换为音频。
致力于音乐创作的模特的兴起是该行业面临的重大挑战。面对大量人工智能生成的音乐,像这样的平台Spotify或 Apple Music 已采取行动。作为上个月重大清理的一部分,Spotify 删除了人工智能创建的数万首歌曲。几周前,Apple Music 也开始禁止由算法制作的内容,首先是艺术家 Drake 和 The Weeknd 之间的假二重唱。包括环球唱片公司在内的多家唱片公司要求进行这些删除活动,他们认为人工智能创作侵犯了版权。开源音乐生成器的激增应该会导致情况恶化……
Opera One - AI 驱动的网络浏览器
作者:歌剧
来源 : 吉图布