一对新的研究论文介绍了使用AI对生物识别系统进行复杂的欺诈尝试,在一种情况下,以进行变形攻击,而在另一种情况下,使用合成数据来进行模板倒置攻击。
达姆施塔特应用科学大学,被称为德国硅谷,已发表了一篇有关培训算法的论文,用于变形攻击检测(MAD)。
这纸提出了两种基于转移转移的方法,用于自动创建数字印刷扫描面部图像,并在训练疯狂算法中使用此类图像。当包括我们的合成和纹理转移打印扫描(分别为600 dpi)到手工制作的图像时,该方法在FRGC/FERET数据库中的同样错误率(EER)为3.84%和1.92%。
该论文是由生物识别技术和互联网安全研究小组的研究人员撰写的,并在ARXIV上发表。
预期合成数据攻击
另一项研究纸,由IEEE生物识别技术,行为和身份科学交易出版,提出了一种使用合成数据针对面部识别系统的模板反演攻击的新方法。该论文的作者包括瑞士IDIAP研究所的生物识别安全与隐私组织负责人Sebastien Marcel。
纸张指出:“我们的实验表明,具有合成数据的训练模型可用于从真实面部图像中提取的模板中重建面部图像。”
该方法的表现优于以前针对四个不同面部数据集的面部识别模型的攻击方法,包括Mobio,LFW,AgeDB和IJB-C数据集。根据这项研究,它还优于面部模板的高分辨率2D面部重建方法,并通过SOTA面部重建方法获得竞争成果。在针对面部识别系统的实际表现攻击中,还测试了生成的面部图像。
纸张的结果和材料可再现它可用GitLab。
IDIAP已广泛工作模板反转攻击,在面部演变攻击方面的工作仍在各个场所继续进行,包括欧洲委员会的IMARS项目。