阳光海岸大学进行的一项新研究阐明了由于澳大利亚公司的匆忙拥抱的公众和员工,客户和利益相关者的不断升级的隐私和安全风险生成人工智能(人工智能)。
人工智能激增可能导致隐私和安全风险
根据这项研究,AI的激增使公司面临各种风险,包括批量数据泄露和由操纵或“中毒” AI建模,故意或偶然造成的业务失败。
该研究敦促企业在实施AI解决方案时考虑道德含义,并提供五点清单,以将AI道德融合到其运营中。
UniSc网络安全讲师Declan Humphreys博士强调了与采用生成AI解决方案(例如Chatgpt,Microsoft的Bard或Google的Gemini)相关的道德和技术挑战。
“研究表明,这不仅是急于将人工智能整合到日常工作中的科技公司 - 呼叫中心,供应链运营商,投资基金,销售公司,新产品开发和人力资源管理公司,”汉弗莱斯在一份声明中说。
他补充说:“尽管关于AI的威胁或偏见的风险有很多讨论,但很少有公司正在考虑网络安全风险。炒作中被捕获的组织可能会因过度责任或过度信任的AI系统而变得容易受到伤害。”
潜在的黑客漏洞
这项研究由网络安全,计算机科学和AI专家合着,强调了缺乏对公司开发或从第三方提供商获得的AI模型中潜在黑客漏洞的考虑。
汉弗莱斯警告说,未经授权访问用户数据或对AI模型响应的更改可能导致的风险,这可能导致数据泄漏或破坏业务决策。
尽管迅速采用了生成的AI,但研究人员指出,立法并未与新兴的数据保护和AI治理挑战保持同步。
该研究通过强调安全的模型设计,公平的数据收集过程,强大的数据存储实践,道德模型再培训和维护以及员工培训和管理来提倡道德AI实施。
汉弗莱斯强调了在AI实施中优先考虑隐私和安全性的重要性,敦促企业采用新的治理框架来减轻对工人,敏感信息和公众的风险。
他强调需要对AI技术及其相关风险进行全面了解,以指导负责人的AI采用。
汉弗莱斯说:“生成AI的快速采用似乎比行业对技术及其固有的道德和网络安全风险的理解更快。主要风险是工人在没有指导或了解如何生产或管理各种生成AI工具的情况下采用或构成了它们的风险。”
他补充说:“公司将需要引入新的治理和监管框架,以保护工人,敏感信息和公众。”
该研究的结果是出版在AI和道德中。