人工智能(AI)仍然是一项杰出的技术,但是一种新的技术谷歌- 撰写了研究主张AI生成的图像现在正在迅速发展,作为错误信息的来源。
AI技术已经引起了新形式的现实曲折错误信息,从虚假的战争图像到名人骗局。这项研究是由Google,Duke University和几个事实检查和媒体团体的研究人员合着的,上周作为预印本发布。
它涉及一个可追溯到1995年的错误信息的大量新数据集,该数据集经过Snopes等网站验证。根据研究人员的说法,数据表明,AI生成的照片迅速获得了知名度,几乎与更传统的操纵形式一样重要。
这项研究最初是由404个媒体在被伪造的新闻通讯发现后报告的,他清楚地表明,直到去年年初,研究人员说,AI生成的图像“总体上占内容操作的一定比例”。

AI炒作的波等于AI产生的错误信息
去年,OpenAI,Microsoft和Google等主要科技公司发布了新的AI图像生成工具。根据该报告,AI产生的虚假信息现在几乎与文本和其他内容修改一样普遍。
根据研究人员的说法,事实检查AI图片搜索的增加与AI炒作的一般激增相似,这可能导致网站更多地专注于技术。
这项研究表明,最近几个月对事实检查AI的放缓,但传统的文本和视觉操纵有所增加。根据该研究还研究了其他媒体,视频骗局现在占所有涉及媒体的调查索赔的60%。
麻烦的AI深击
AI深击现在也是AI产生错误信息的重要原因。网络安全专家最近警告说,这些骗局变得越来越普遍和复杂。
Great Hill Partners网络安全专家Jason Hogg指出,高级管理人员的深击可能会传播错误信息,影响股票价格,破坏人们的声誉并分发有害内容。
霍格(Hogg)认为,前联邦调查局(FBI)特工霍格(Hogg)使用社交媒体和其他来源的数字数据生成的AI可能会产生Deepfakes。
霍格认为,由于有效的网络犯罪需要进行彻底的研究来构建系统,程序和控制以打击新兴技术,因此更大的挑战将继续加速。
网络安全专家通过改进员工培训,频繁的网络安全测试以及实施多层交易批准流程来建议加强防御能力,以防止AI驱动的威胁。
据报道,一项令人不安的事件涉及一名总部位于香港的金融工作者,欺骗了骗子约2500万美元。骗子欺骗了员工通过使用Deepfake技术在视频对话中担任同事来进行转会。
参与香港案件的英国工程公司Arup承认了这一问题,但由于询问仍在进行中,但没有透露更多信息。
Netskope首席信息和安全官戴维·费尔曼(David Fairman)声称,由于AI技术广泛可用的AI技术,黑客现在能够执行具有较低技术专业知识的复杂计划。
