随着人工智能代理的到来,企业正在寻找越来越多的未来机会。其中之一是向人工智能代理授予我们可验证凭证(VC)的访问权,以代表我们行事——无论是预订墨西哥假期旅行、通过谷歌提交税务报告,还是在 Robinhood 上建立股票交易。
但在人工智能代理获得通过在线服务管理我们日常任务的可能性之前,技术人员必须回答一些难题。其中包括我们如何信任人工智能代理在与系统、合作伙伴和其他代理交互时准确地表示有关我们的信息。
“可验证凭证与这些代理的交互将非常有价值,”产品经理 Diana Jouard 说道。。她补充说,服务提供商将能够依赖这些加密安全且可验证的声明,而不是昂贵的集成和审查流程。
Jouard 在这家美国身份管理公司本周组织的一次网络研讨会上发表了讲话,该研讨会探讨了人工智能代理和数字身份的交叉点
人工智能代理的话题已成为身份行业的密切关注者。自治系统通常是作为旨在自动化任务和实现复杂目标的软件工具。专家相信他们可能成为未来甚至帮助生物特征认证。
商业咨询公司的高级企业安全架构师 Peter Clay 表示:“这可能会造成很多破坏。”PA咨询。
但与任何新技术一样,公司必须决定如何处理与可验证凭证和身份相关的技术。克莱补充道,企业必须牢记保持数据安全、验证身份和应用零信任原则的“老式”规则。
“你不能把头埋在沙子里而忽视这些东西,”他说。 “它即将到来,它将改变组织的工作方式——希望变得更好。
AI代理也可能带来意想不到的风险。美国伊利诺伊州德锐大学首席信息安全官 (CISO) Fred Kwong 解释道,赋予人工智能代理超出其应有的权力或允许他们根据错误数据做出决策可能会偏离其意图。
使用人工智能代理将需要不同的方法来实现访问控制,包括定义允许其执行哪些任务以及可以访问哪些数据。组织需要建立适当的控制,控制谁可以提供代理数据并添加到其知识库,谁可以在信息过时时修改、删除或更新信息。
隐私监管也将发挥作用:如果人工智能模型已经了解了有关用户的所有信息,那么删除这些信息会是什么样子?
“我不确定我们的控制措施是否能够跟上技术发展的步伐,”他说。
作为人工智能代理核心的大型语言模型 (LLM) 等技术的缺点是,它们可能容易受到社会工程攻击,以及不良行为者试图设计它们共享不应共享的信息。乔阿尔表示,人工智能代理也可能是“自私的”,或者是为了为某些公司做广告或出于公司利益而影响其用户的行为。
“这要复杂得多,”PA Consulting 的 Clay 说。 “测试变得非常非常困难,你必须比很多人意识到的更早的开发阶段开始考虑它。”
尽管人工智能代理仍处于起步阶段,但许多组织正在考虑推出它们。然而,企业必须考虑与代理相关的理由和用例,了解是否真正有投资回报(ROI),以及与帮助组织相比,代理会造成多少摩擦,Kwong 说。
量子计算预计将在未来 10 年内兴起,这可能意味着企业和组织引入的许多控制措施可能会变得过时。将量子计算的力量(有可能破解某些类型的加密)与大型语言模型(LLM)相结合也可能在未来带来挑战。
“这对我来说是一个有点可怕的世界,”邝说。
文章主题
||||









