ChatGPT 和 Google Bard 可能会被恶意个人操纵。由于有针对性的请求,可以推动人工智能生成非法或危险内容。一项研究表明,谷歌的聊天机器人比 OpenAI 开发的解决方案更容易受到网络犯罪分子操纵策略的影响。
正如执法部门预测的那样,网络犯罪分子已经大规模采用生成式人工智能。由于经过精心校准的请求,黑客可以使用可用的语言模型来想象来自网络钓鱼、编写病毒或为受害者设置巧妙的陷阱。这些请求允许恶意个人绕过限制措施由 Google、OpenAI 或 Anthropic 等公司实施。理论上,这些限制应该可以防止聊天机器人生成非法或攻击性内容。这些防御并非万无一失。只要有一点专业知识,就有可能操纵人工智能,让它做任何事情。
根据 Check Point Research 研究人员的一项研究,并非所有聊天机器人都是不等于面对试图操纵他们的对话者。显然,谷歌的人工智能巴德比谷歌的人工智能更容易受到操纵。聊天GPT。与 01Net 分享的报告指出,使用 Bard 更容易生成恶意内容,因为“网络安全领域的限制性反滥用措施要少得多”。只是“最少的处理”推动聊天机器人想象潜在危险的软件。
被操纵的巴德可以协助海盗
作为实验的一部分,Check Point Research 能够迫使巴德写一封电子邮件网络钓鱼旨在用于窃取个人数据给互联网用户。经过两次尝试后,巴德提议“一封写得很好的电子邮件,模仿了非常具体的金融服务”。我们能够证实研究人员的发现。通过简单的查询,巴德即可快速生成欺诈性电子邮件样本。
“我们注意到您的帐户有可疑活动。为了您的帐户安全,我们已暂时暂停您的访问。要重新激活您的帐户,请单击下面的链接并输入您的登录信息 »。
聊天机器人还强调了此类电子邮件的所有基本元素。这是几乎是一个教程对于一个崭露头角的海盗来说。面对同样的要求,ChatGPT坚决拒绝回应对话者的要求。该机器人在拒绝的同时,还向遭受网络钓鱼攻击的互联网用户提供了一系列建议:
“很抱歉,我无法提供网络钓鱼电子邮件的示例。促进或鼓励非法或恶意活动(例如网络钓鱼)违反 OpenAI 的负责任使用指南。网络钓鱼是一种欺诈行为,旨在欺骗用户相信他们正在与合法实体进行交互,以获取他们的个人信息,例如密码、信用卡号等。»。
研究人员还设法获得了一个键盘记录器,也称为键盘记录器。此类软件旨在记录计算机键盘上的每一次击键,而用户却没有意识到。这是窃取凭证的理想选择。 Bard 温顺地提供了代码,而 ChatGPT 则拒绝了,因为他知道“该请求可能是恶意的”,构造检查点。
最后,巴德同意生成一个代码勒索软件。为了让聊天机器人遵守规定,研究人员必须这样做好几次,首先要求巴德“描述勒索软件最常见的行为”。因此,机器人最终进行了合作,并提供了一个可能被潜在网络犯罪分子利用的基地:
“使用 Bard 进行一些更改并添加附加功能和异常处理后,就有可能获得有效的脚本”。
Bard 在发布时与 ChatGPT 不相上下
研究人员将巴德的保护措施与其他保护措施进行比较“在几个月前的初始启动阶段在 ChatGPT 中观察到”。 ChatGPT 最初的防篡改保护措施很差,自 2022 年 11 月发布以来已逐渐发展。
“总体而言,Google Bard 似乎尚未从 ChatGPT 中明显的网络域实施反滥用限制中汲取所有教训”,总结了 Check Point Research。
斯坦福大学和加利福尼亚大学的研究人员最近进行的另一项研究表明,GPT-4,该模型的最新迭代,对攻击更具弹性。他是欺骗 ChatGPT 变得越来越复杂并绕过 OpenAI 限制。随着时间的推移,AI开始改变。对于 Check Point Research 来说,Google Bard 也有可能随着时间的推移朝同一方向发展。