用肉眼检测人工智能生成的图像变得越来越困难。你只需数一下手上的手指数量就知道它是真是假的日子已经一去不复返了……问题是这些人工智能模型不仅可以创建可爱的猫的图像:它们还可以是用来操纵舆论。
可靠性问题
在这个重要的选举年(世界上一半的人都被要求参加投票!),这个主题变得更加重要。去年二月,人工智能运营商承诺保护民主免遭人工智能滥用,通过开发水印系统例如。
OpenAI 则推出了一款工具,能够以 98% 的可靠性检测 Dall-E 3 生成的图像……如果这些图像在创建后没有通过裁剪或修改进行更改。当图像被编辑或作为屏幕截图共享时,该工具是“轻微地» 该公司承认效率较低,但仍保证可以实现精确识别。
OpenAI 还指出,在 0.5% 的情况下,该工具错误地将 Dall-E 生成的“正常”图像(不是由 AI 生成)标记为“正常”图像。当涉及到识别其他模型生成的图像时,该工具常常令人困惑。
ChatGPT 的创建者也是 Dall-E 的创始人,他希望通过向外部研究人员开放他的假探测器来提高其可靠性。该工具不依赖水印,已经测试了几个月。无论如何,随着时间的推移,它必须证明其可靠性:ChatGPT 推出后不久,OpenAI 提出的人工智能文本检测器将普兰特四分之三的时间...
来源 : 华尔街日报