自2022年以来,世界目睹了大型语言模型(llms)喜欢OPIC的AAIP和Google bard,促使公司的大量投资在开发和激发AI竞赛方面。
必须注意的是,这些AI工具经常被集成到聊天机器人中,并且它们搜索了互联网广泛的信息,以学习和生成对用户提示的响应。
但是,来自AI安全创业公司Mindgard和Lancaster University的研究人员警告说,这些LLM的部分可以在几天之内以仅50美元的价格进行复制。
可以利用获得的信息来实现攻击,构成诸如揭示机密数据,绕过保障措施,提供不准确的响应或实现进一步集中攻击的风险,TechXplore报告。
他们的发现将在CAMLIS 2023(有关信息安全性应用机器学习会议)上提出,证明了对现有LLM的关键方面的具有成本效益的复制的可行性。

大语模型的模型
研究人员采用了一种称为“模型水力学”的策略,其中LLM参与了特定的提示,从而透露了对其功能的见解。
在他们的研究以Chatgpt-3.5-Turbo为中心的研究中,该团队报告说,在型号小于一百倍的型号中复制了LLM的关键要素。这种复制的模型是发现Chatgpt漏洞的测试基础,在利用这些漏洞方面的成功率提高了11%。
兰开斯特大学的彼得·加拉汉(Peter Garraghan)博士和Mindgard的首席执行官对他们的发现表示着迷和关注。他强调了他们工作在展示封闭源和开源机器学习模型之间安全漏洞的可转移性方面的重要性,尤其是考虑到对公开可用模型的广泛依赖。
“这是首先要在经验上证明可以在封闭的源和开源机器学习模型之间成功传递安全脆弱性的作品之一,这是非常令人担忧的,鉴于有多少行业依赖于在诸如拥抱脸等地的公共机器学习模型,” Garraghan在新闻稿中说。
AI技术的潜在弱点
该研究强调了其中的潜在弱点人工智能技术,甚至可能在模型之间共享共同的漏洞。
尽管企业有望为智能助理,金融服务和企业解决方案等不同应用程序创建自己的LLM,但研究人员强调了承认和解决相关的网络风险的重要性。
尽管具有变革性的潜力,但Garraghan还是强调了在采用和部署LLM技术时仔细考虑网络风险的必要性。
Garraghan指出:“尽管LLM技术具有变革性,但企业和科学家都必须在理解和衡量与采用和部署LLM相关的网络风险方面非常仔细地思考。”
