能够创建内容的人工智能变得越来越高效,以至于常常无法辨别真假。这可能会在现实中产生后果,去年春天我们再次看到了这一点五角大楼爆炸的真假图像这让华尔街陷入混乱。
肉眼看不见的水印
科技巨头提出的解决方案:在人工智能生成的内容上加水印。这是该行业在白宫就此主题的会议上所主张的。然而,正如谷歌最新举措所示,实施过程可能会非常复杂。
谷歌的专业人工智能分支 DeepMind 揭晓一个名为 SynthID 的新工具,可以为 AI 图像添加水印。肉眼看不见的水印,但它直接集成到视觉像素中,因此,知道在哪里看的系统仍然可以检测到水印。
SynthID 目前仅适用于少数 DeepMind 客户,而且最重要的是,这种水印技术仅限于使用 Imagen(Google 的真实感图像创建模型)生成的视觉效果。这将严重限制该技术的范围,仅限于搜索引擎生态系统。鉴于人工智能图像生成工具的激增,SynthID 可能只是浪费时间。
DeepMind 没有提供有关其水印的技术细节,以防止聪明的人找到绕过它的方法。然而,这只是时间问题:SynthID 的秘密最终会被发现,特别是如果该系统被证明有效,该公司打算与合作伙伴分享这些秘密。小心泄漏!
只有整个行业齐心协力设计一种通用的水印,并且尽可能难以穿透的水印,这种类型的水印才会真正相关。谷歌还表示SynthID可以适应其他AI模型。另一个陷阱是,世界上所有的水印都无法阻止人工智能生成的壮观图像的病毒式传播。
DeepMind 并不抱有任何幻想:所提出的方法并不是防止图像极端操纵的盾牌。相反,它是组织负责任地处理人工智能生成内容的工具。
来源 : 深脑