印度和美国的学术研究人员正在采取几种不同的方法来解决来自不同人口群体的人脸生物识别技术的公平性,以及用于训练生物识别算法的数据集。
IIT 研究人员开发 FPR 框架
印度焦特布尔理工学院 (IIT) 的研究人员开发了一个框架来评估“、隐私和监管”(FPR)规模,旨在解决针对印度背景定制的人工智能系统中的偏见和道德失误问题。
根据 PTI 发布的一份报告本周杂志印度理工学院焦特布尔分校教授、该研究的通讯作者 Mayank Vatsa 表示,在专门为印度构建面部识别系统时,最好优先考虑反映该地区存在的面部特征和肤色多样性的数据集。
该框架与国际合作者共同开发,并于 8 月份发表在《自然机器智能》杂志上,为数据集分配了 FPR 分数。它通过评估人口代表性来评估公平性,通过识别可能导致数据泄露的漏洞来评估隐私,并通过检查对法律和道德标准的遵守情况来评估监管合规性。
研究人员审核了 60 个数据集,包括 52 个基于面部生物识别的数据集和 8 个胸部 X 光数据集,发现了广泛的缺陷。大约 90% 的人脸数据集得分较低,其中大多数未能满足公平性和合规性标准。
SMU 和 WVU 探索合成数据的潜力
随着面部识别领域的人工智能应用在全球范围内扩展,南卫理公会大学 (SMU) 和西弗吉尼亚大学 (WVU) 的研究人员也在带头努力解决该技术中长期存在的偏见、公平和安全问题。
在 SMU 莱尔工程学院,计算机科学助理教授兼 SMU Guildhall 研究副主任 Corey Clark 领导的团队专注于生成用于 AI 训练的大量合成数据集。与包含真实人类图像的传统数据集(通常通过道德复杂的协议或网络抓取获取)不同,合成数据集是通过算法创建的。克拉克在一篇文章中提到了这些数据集YouTube 解说员,可以模拟高度逼真的人类肖像,而不依赖于可识别的个人,在保护隐私的同时实现大规模模型训练。
种族和性别的风险算法招致了批评,并强调了公平技术的必要性。
Nima Karimian,莱恩计算机科学与电气工程系助理教授西弗吉尼亚大学工程与矿产资源学院的本杰明·M·斯塔特勒 (Benjamin M. Statler) 强调,生物识别系统面临重大安全漏洞,特别是针对手机和笔记本电脑等硬件的攻击。
在西弗吉尼亚大学,Karimian 正在从不同的角度解决这个问题,利用 632,000 美元的 NSF 职业奖来探索人工智能在偏见和公平失败方面的脆弱性。他的工作强调了在关键应用程序中使用有缺陷的数据集或算法所固有的风险。
“迄今为止,还没有专门针对反欺骗生物识别技术中的偏见和公平性的研究,”卡里米安在谈到活性或演示攻击检测 (PAD) 时说道。
“部分挑战在于,当前以减轻偏见的方式训练人脸识别软件的最先进技术涉及使用,而不是真实人脸的图像。但如果我们试图减轻反欺骗系统中的偏见,合成数据生成将不起作用,因为反欺骗系统的全部目的是区分虚假样本和真实数据。”
克拉克认为合成数据对于克服公平人工智能的障碍可能至关重要,而卡里米安则试图解释人口偏见的根本原因。
文章主题
||||||