菲利普·波特纳(Philipp Pointner),数字身份负责人Jumio
尽管发布后几个月只有几个月,但AI聊天机器人现象Chatgpt已完全接管了互联网。它可以快速响应查询,协助任务和生成内容的能力,使其成为学生,员工和无数其他用户的有用资源。更不用说,在几秒钟内开设免费帐户及其易用性的能力使其成为更具吸引力的工具。
不幸的是,除了明显的好处外,Chatgpt也是一种强大的武器,可以轻松地以更大的规模创建恶意内容,将网络犯罪提升到一个全新的水平。可以肯定的是,研究人员有成立网络犯罪分子的案例覆盖了Chatgpt的反滥用限制,以生成或审查恶意代码。它还有能力进行高度令人信服的对话Deepfake视频在几秒钟之内,允许坏演员比以往任何时候都更快地传播虚假信息。
随着网络犯罪分子继续寻找新的方法来恶意使用Chatgpt,组织和消费者必须能够更好地捍卫自己。
准备聊天机器人网络攻击
生成性AI最大的威胁之一也许是新发现的能力,可以大规模快速传播虚假信息。 2023年1月,研究人员预测这种生成的AI将使虚假信息变得更加容易,更便宜,以使更多的宣传和阴谋理论家产生。但是,这种现实比我们想象的要远远超近我们 - 实际上,它已经在这里。那里一直是数十例民族国家参与者案件创建了AI生成的政治人物视频以传播虚假信息,而区分真实和不是什么,越来越困难。借助ChatGpt和其他合成媒体生成器等工具,可以免费使用,并在我们的触点上使用Internet访问的任何人都可以产生网络攻击并传播虚假信息。
此外,生成技术正在不断发展,并且很快就有能力完全连接到互联网。这将使聊天机器人可以实时获取对实时信息的访问,从而进一步提高其准确性。发生这种情况时,机器人将变得比现在更复杂。如果放在错误的手中,就不会说出可以在包括新闻媒体和社交媒体平台在内的媒体渠道分散哪种宣传。
我们中的许多人已经处于那些网络钓鱼短信的接收端,我们的老板或朋友在这里要求我们汇金或向他们发送礼品卡 - 只是另一端我们认识的不是真正的人。据我们所知,这些网络钓鱼短信是由真正的人类寄出的。但是现在,借助生成技术,一个人可以大规模发送这些文本,并招募机器人以保持对话的进行。
沟码。需要新的机器人检测工具
和研究表明Chatgpt可以欺骗人类绕过Catpcha,这是旨在防止机器人的工具,很明显在线组织必须超越这些过时的方法。
企业有责任确保其业务和客户安全,但是过去的机器人检测方法还不足以实现新浪潮的机器人和欺诈浪潮。所需的是复杂的身份验证工具,可以确认每个人创建一个帐户(随后登录该帐户)是屏幕后面的真实人。
这些类型的解决方案可能包括LIVISE检测,其中安全算法确定生物识别验证样本是假代表还是活人。组织可以部署的另一种身份工具是以文档为中心的身份证,在该工具中,将政府发行的ID与实时自拍照进行比较以验证用户是他们说的。这些现代的数字身份技术可以使企业安心,他们的用户是真正的人类,甚至是他们自称是谁,同时帮助防止消费者暴露于虚假信息和欺诈方面。
假设机器人直到被证明人
作为消费者,我们也有义务确保在网上遇到任何形式的内容时,即使是来自信誉良好的来源,我们也会非常谨慎。消费者不应总是相信他们看到的每一篇内容,并鼓励对似乎令人怀疑的新闻进行进一步的研究。在社交媒体方面,用户首先假设帐户是机器人是明智的,直到被证明是人为经营的,尤其是在涉及可疑内容时。
尽管生成的AI具有明显的优势,但它也带来了重大的社会风险。但是,如果组织部署现代工具和消费者在网上遇到内容时保持谨慎,则聊天机器人驱动的网络攻击将不会有机会。
关于作者
作为数字身份的负责人,菲利普领导Jumio的数字身份策略以及在其生态系统中实现多个数字身份提供商的倡议。在加入Jumio之前,Philipp负责Paysafecard,Paysafecard是欧洲最受欢迎的在线购买解决方案。
免责声明:生物识别更新的行业见解是提交的内容。这篇文章中表达的观点是作者的观点,不一定反映生物识别更新的观点。