其中三篇论文被选中在安全生成人工智能研讨会在加拿大温哥华举行的 NeurIPS 2024 上,应对生物识别领域的挑战和进步。
重点研究涵盖生物识别模型解释的方法,探讨身份验证的弱点和安全风险,并调查面部识别模型中的偏见问题。其中两篇论文是由来自该研究所的研究人员撰写的伊迪亚普研究所在瑞士。
论文简介
论文标题为“使用嵌入翻译进行模型配对,用于开放集分类任务的后门攻击检测”介绍了“模型不可知原型解释”(MAPE)作为解释生物识别系统中人工智能行为的一种新方法。作者建议使用原型示例来解释和解释黑盒生物识别模型的决策,使用户能够更好地理解为什么会做出某些生物识别预测。
根据该论文,MAPE 方法使用各种与模型无关的方法来分析和评估解释。这些方法旨在通过比较生物识别的嵌入表示来实现准确性和透明度,从而在预测之间提供更可解释的相似性分数。 MAPE 利用原型作为比较基准,生成相似性分数,揭示预测与先前识别的模式的吻合程度。
该框架有望增强可信度生物识别系统通过使模型输出更易于解释。这些解释在需要高风险生物识别验证的应用中可能特别有影响力,例如边境安全或金融服务,其中可解释的人工智能可以帮助决策者验证和信任模型输出。
论文标题为“HyperFace:通过探索人脸嵌入超球面生成合成人脸识别数据集通过分析不同的人工智能模型如何受到对抗性输入的损害,检查生物识别系统的稳健性。该研究重点关注各种攻击类型,包括基于噪声和模式扭曲的攻击,以确定生物识别系统被欺骗的容易程度。
作者(匿名进行双盲审查)提出了攻击和对策的分类,以帮助增强生物识别系统的安全性,评估不同对抗性防御策略在一系列用例中的有效性。通过模拟对面部识别和指纹识别系统的攻击,他们展示了存在的漏洞以及通过战略修改实现弹性设计的潜力。
第三篇论文,“揭开合成面孔:合成数据集如何暴露真实身份,”揭示了生物识别领域一个长期存在的问题:面部识别模型的跨区域偏见。生物识别系统中的偏差可能会导致不公平的结果,特别是在面部识别领域,某些人口群体可能会被不成比例地错误识别。该论文探讨了根据特定地区的数据训练的面部识别模型在应用于其他地理区域的个人时往往表现不佳,强调了可能影响该技术全球部署的公平性问题。
作者对多个人脸数据集进行了实验,仔细检查了区域化人脸识别模型的准确性,并研究了不同人群之间如何出现差异。他们的研究结果表明,模型训练的区域对其在不同人群中的准确性有重大影响,从而导致模型评估中经常被忽视的系统性偏差。
影响和未来方向
这些论文,聚光灯下的作者:生物识别安全和隐私领域的教授兼高级研究员 Sebastien Marcel,共同解决了当今生物识别领域的一些紧迫问题:可解释性、安全性和公平性。通过推进与模型无关的解释、防御对抗性攻击以及解决跨区域偏见,研究人员正在推动生物识别技术走向更加透明的未来。
NeurIPS 2024 的安全生成人工智能研讨会将于 12 月 14 日至 15 日举行。