在一个越来越受人工智能影响的世界中,这个问题出现了:像chatgpt这样的AI聊天机器人可以检测到AI生成的深击?
AI Chatbots Chatgpt和Gemini可以检测到Deepfakes吗?
一个新布法罗大学领导的研究旨在回答这个问题,重点是大型语言模型(LLM),例如Openai的Chatgpt和Google的双子座。
这项研究探讨了LLM在发现人脸的深层效果方面的潜力,随着社交媒体和其他平台上AI生成的内容的兴起,这一挑战变得更加紧迫。
该团队发现,尽管LLM与高级DeepFake检测算法的性能不符,但他们的自然语言处理功能可能使它们成为将来这项任务的宝贵工具。
诸如chatgpt之类的模型的最新版本使这些工具可以使用字幕照片的数据库来分析图像,以了解单词和视觉内容之间的连接。
研究人员为模型提供了成千上万的真实和AI生成的图像,并要求他们确定操纵迹象。研究发现,在由潜在扩散创建的照片中标记合成伪像的时间的79.5%的时间为79.5%,而在stylegan创建的图像上则是77.2%。
研究中强调的关键优势之一是Chatgpt能够以人类可以理解的方式来解释其决定。例如,当分析戴眼镜的人的AI生成的照片时,该模型指出了诸如图像一侧的头发模糊的问题以及人与背景之间的突然过渡。
根据研究人员的说法,这种类似人类的解释提供了通常在传统的深泡检测算法中没有发现的额外透明度,通常只给出概率得分而没有上下文。

chatgpt和双子座的缺点?
但是,该研究还引用了几个缺点。 Chatgpt的准确性仍然落后于最新的DeepFake检测算法,该算法在90年代中期至高期具有精度。
根据该团队的说法,这种差异部分是由于LLMS无法检测到人眼看不见的信号级统计差异,但可通过专业算法检测到。
此外,使Chatgpt的解释直觉的语义知识也可以限制其有效性。该模型的重点是语义级别的异常,这可能无法捕获深击操作的所有细微差别。
他们发现的另一个挑战是,当被要求确定它们是否是AI生成时,Chatgpt经常拒绝分析照片。研究人员说,通常会回答有关由于信心阈值而无法协助该请求的声明。
在研究中测试的另一种模型Gemini在识别合成伪像但努力提供连贯的解释方面表现出色。该研究说,该模型的支持证据通常包括荒谬的观察结果,例如识别不存在的痣。
研究人员得出的结论是,尽管像Chatgpt这样的LLMS以Deepfake检测工具为准,但他们尚未准备好取代专业算法。这些发现是在IEEE/CVF计算机视觉和模式识别会议上提出的。纸也是出版在Arxiv中。
