生成式人工智能知道如何用几个单词创建图像、文本甚至音乐。稳定扩散增加了一根弦:视频!您所要做的就是描述您想要看到的移动,模型就会生成视频。
稳定扩散会创造下一个重磅炸弹吗?
第一个生成视频模型基于稳定扩散图像模型,它允许您创建不同风格的插图、徽标、海报、图像、小说、代码......稳定视频扩散适用于许多情况,例如创建多个视图来自单个图像的同一主题。
稳定扩散视频能够生成每个视频 14 到 25 帧,具有自定义刷新率(每秒 3 到 30 帧)。
研究人员已经可以大致了解这一新功能,而代码可以在GitHub。稳定扩散也共享一个文章研究详细说明该模型的工作原理。公众和好奇者可以订阅邮件列表来访问未来的网络界面。有很多机会:教育、娱乐、广告等。
与 Dall-E 或 Midjourney 等其他模型不同,Stable Diffusion 由于其开源性质而更容易访问。另一方面,所产生的视觉效果的质量是可变的,并且对模型生成的内容的利用可能会带来版权问题。
来源 : 稳定扩散