一个新研究发现聊天机器人由人工智能(AI)像chatgpt一样可以通过网络安全考试,但无法完全保护。该结论来自密苏里大学研究员普拉萨德·卡里姆(Prasad Calyam)和印度阿姆里塔大学(Amrita University)的合作者合着的论文。
该团队评估了两个领先的生成AI工具,OPIC的AAIP以及Google的吟游诗人,现在被称为双子座,使用了标准认证的道德黑客考试。

AI聊天机器人尝试经过认证的道德黑客考试
经过认证的道德黑客是网络安全专业人员,他们使用与恶意黑客相同的策略和工具来识别和纠正安全漏洞。道德黑客考试评估个人对各种攻击类型,保护方法和对安全漏洞的反应的理解。
Chatgpt和Bard分类为“大型语言模型”的高级AI程序,生成具有数十亿个参数的网络的类似人类的文本,使他们能够回答问题并生成内容。
在研究中,Calyam和他的团队通过经过验证的经过认证的道德黑客测试测试了这些AI工具。例如,他们被要求解释中间人的攻击,其中第三方拦截了两个系统之间的通信。
两种AI聊天机器人都可以描述攻击,并建议采取预防安全措施。巴德(Bard)表现出的准确性比chatgpt稍好,后者在清晰,全面和简洁方面提供了更好的反应。
Mizzou电气工程和计算机科学的网络安全教授Calyam解释说,这两种AI工具都经历了多种考试方案,以评估其响应查询的能力。
这两个聊天机器人通过了考试,并提供了熟悉网络安全的人可以理解的答复。但是,他们偶尔会提供错误的答案,这是错误无法忍受的网络安全问题。无法解决所有安全漏洞可能会导致反复攻击。
'你确定吗?'
此外,该研究表明,当提示他们用“确定吗?”等查询确认他们的回答时,这两个系统经常修改他们的答案,纠正先前的错误。
在寻求攻击计算机系统的指导的情况下,Chatgpt引用了“道德”,而Bard则澄清了它不是为此类查询而设计的。
Calyam对取代人类网络安全专家表示怀疑,这些专家拥有对制定强大的网络防御策略至关重要的关键解决问题的技能。但是,AI工具可以为需要迅速帮助的个人或小型企业提供基本信息。
他指出,这些AI工具可以作为在咨询专家之前调查问题的初步步骤,还可以作为IT专业人员或学习识别新兴威胁的人的宝贵培训辅助工具。
该研究强调了AI模型有助于道德黑客攻击的潜力,但要充分利用其能力,必须进行大量精致。
加里姆指出,如果可以确保其在道德黑客方案中的准确性,AI工具可以增强整体网络安全实践,从而有助于更安全的数字环境。研究的发现是出版在期刊计算机和安全性中。
