另一个部门是关于人工智能的潜在危害的危险信号,这次是关于生物识别安全的。学术界,网络安全专家和政府都在问有关是否是否存在的问题生成的AI具有损害生物特征验证系统的能力,以及可能产生什么后果。
最近播客从经济学家那里汇集了几种著名的声音,讨论了这个问题,以及在日常生活中生物识别验证的越来越多的情况下意味着什么。
“随着生成人工智能的年龄,我的脸或声音的欺骗可能会使黑客敞开大门,这是可行的,”经济学家的高级编辑肯尼斯·库基尔(Kenneth Cukier)在其每周的技术播客《鲍巴奇》(Babbage)上说。 “我们已经看到了深击音频和视频。”
“随着生物识别技术被越来越广泛,生成的AI改善,可以采取什么措施来降低风险?如果AI变得足够强大以使生物识别技术几乎过时,该怎么办?”
生物识别技术是安全的,因为它们是独一无二的。从历史上看,与密码相比,面部印刷更难复制。但是,如果该数据受到损害,同样的强度将成为更大的风险。哈佛大学的安全技术专家布鲁斯·施尼尔(Bruce Schneier)在播客上发表讲话黑客的思想指出,具有讽刺意味的是,指纹,视网膜扫描和面部生物识别技术的相对不变性仅在受保护的情况下使其更安全。
施尼尔说:“我们谈论的最大风险之一是您无法从失败中恢复过来。如果我有一个密码而且我的密码被盗,我可以创建一个新密码。这很容易。如果我使用的是拇指纹,并且被盗了……我有点不能得到另一个拇指。生物识别技术不是您可以随时创建的。它们是奇异的,他们是公开的,而且都是您所拥有的。”
深击是另一个主要挑战。卡蒂娜·迈克尔亚利桑那州立大学的一名教授,研究了增强情报和社会未来的教授,他说,获得准确有效的欺骗所需的技术正在降低进入的障碍。 “欺骗一个系统,伪装成某人,通过防御能力,越来越有可能 - 尤其是如果我们在生物识别技术中没有实时发现。”
Apac国家推动调节AI的有争议用途
经济学家的谈话是一个思想实验。但是政府继续与大型语言模型(LLM)和生成AI。
在韩国,个人信息保护委员会宣布了研究小组的大会审核和更新法律,以便对生物识别数据提供足够的保护。如国家法律评论,该委员会的声明包括“生物特征信息本质是个人独有的,又是不可变的”,“滥用或泄漏的影响都会更大。”
韩国加入中国和新加坡在亚太国家介绍生成AI系统的监管指南中。澳大利亚也是考虑禁止它认为是AI的高风险实例,包括深击和算法偏见。
同时,欧盟继续在采用AI的监管框架中发挥主导作用,这次是美国欧盟贸易技术委员会联合声明,于5月31日在瑞典卢莱奥(Luleå)举行的部长级会议之后出版。人工智能和其他发展技术的快速增长成为中心阶段,理事会作为关键结果,“在新兴技术方面为联合美国欧盟领导力的新兴技术进行了强大的跨大西洋合作。”
“美国和欧盟致力于加深我们在技术问题上的合作,包括人工智能(AI),6G,在线平台和量子,”宣读。“我们致力于充分利用新兴技术的潜力,同时限制了它们对普遍人权的挑战并共享民主价值观。”
指向现有的联合路线图关于值得信赖的AI和风险管理的评估和测量工具作为一个良好的开端,新的联合声明承诺在三个关注的领域中创建专家群体。第一个将定义和标准化AI的词典和分类学。第二个将致力于管理风险的标准和工具,第三个专门用于监视现有和新兴问题。
除了解决生成AI之外数字身份并举行了一系列美国欧盟技术交流和活动,以吸引政府,工业,民间社会和学术界的主题专家。”
它说:“我们打算开发数字身份资源,计划和用例的跨大西洋映射,目的是促进跨大西洋前标准化的研究工作,促进互操作性以及在尊重人权的同时简化实施指导。”