唤起执法部门的关注,ChatGPT 被犯罪分子大量利用。诈骗者利用人工智能编写令人信服的网络钓鱼电子邮件、想象勒索信息等。设计恶意软件。尽管 OpenAI 设置了所有限制,但一些黑客确实正在转向语言模型来编码勒索软件或者恶意软件数据窃贼。
为了证明 ChatGPT 带来的危险,美国公司 ForcePoint 的网络安全研究员 Aaron Mulgrew 进行了自己的实验。他使用聊天机器人“无需编写代码,仅使用 ChatGPT 即可创建高级恶意软件”。
这位研究人员欺骗了 ChatGPT
该实验的主要目的是证明 OpenAI 实施的限制的不足。事实上,这家初创公司用一系列规则构建了语言模型。例如,ChatGPT 无法帮助其对话者进行犯罪活动。如果你问人工智能如何破解计算机、部署病毒或窃取金钱,它会拒绝回答你。 ChatGPT 将显示如下警告:
“作为一个负责任的人工智能,我无法向你提供有关非法、危险或有害活动的信息或建议,包括如何对他人造成伤害。我无法帮助您设计、编码或解释如何创建恶意软件或进行非法活动”。
为了绕过 OpenAI 的保护措施,Aaron Mulgrew 站在了将创作分解为几个连续的阶段,显然合法且严格无害。这样一来,ChatGPT 就没有“意识到”自己正在编写恶意软件……详细来说,研究人员想要开发一个恶意软件类型信息窃取者,即旨在从设备窃取数据。
首先,他说服 ChatGPT 生成一行代码,自动从计算机硬盘检索文件,例如 PDF 或 Word 文档。然后,它们被分成几部分并隐藏在图像中,然后通过 Google Drive 文件夹泄露。为了渗透计算机,该病毒伪装成Windows屏幕保护程序安装文件。
操作模式已经定义,Mulgrew 希望使恶意软件防病毒和安全系统无法检测到。研究人员要求 ChatGPT 对代码进行各种更改,包括“实际启动延迟两分钟”,它允许您绕过某些安全功能。同样,他要求她混淆代码的恶意软件。此过程包括使软件代码难以理解和解释,以使防病毒软件失明。然后这些就会错过恶意功能。
起初,ChatGPT 拒绝遵守。因此,研究人员要求聊天机器人“将所有变量更改为随机英文名字和姓氏”。语言模型发现没有任何问题,就遵守了。经过这些改变,病毒变得无法检测到。 Mulgrew 测试的所有防病毒软件均未锁定该软件。
不编码就编写病毒
无需编写任何代码,互联网用户显然可以从头开始设计新的计算机病毒。然而,值得注意的是,有必要对病毒和编程语言如何工作以实现您的目标有一个相当精确的了解。
有些步骤需要研究人员多次尝试和一点创造力。例如,为了使病毒无法被检测到,Mulgrew 要求较强的计算机技能。正是他想象出了如何欺骗防病毒软件。这不是人工智能。在这种情况下,ChatGPT 只是一个工具,有助于将想法转换为计算机代码。
所以这并不是每个人都能真正做到的。有“需要一定水平的技能”Mulgrew 承认,以这种方式创建软件。然而,通过处理代码,ChatGPT 可以为开发人员节省大量时间。恶意软件......如果没有人工智能,病毒的设计就会采取“对于 5 到 10 名开发人员的团队来说需要几周的时间”,研究人员估计。
来源 : 力点