美国国家AI咨询委员会准备建议该国联邦执法机构的要求,以发布其对面部识别和其他高风险AI工具的年度摘要,即联邦调查局报告。
该要求将是AI应用程序的清单他们已经有义务根据3月管理和预算办公室发布的备忘录提交。委员会成员说,额外的透明度将通过提供有关AI使用范围和质量的更多有用信息来帮助美国人放心。
迈阿密警察局在今年早些时候的一个事实调查任务中告诉委员会成员,它每年使用面部认可约40次。
“例如,如果我们知道一个机构正在使用面部识别,一些观察家会推测,这是向一种监视状态的基本转变,我们的运动将在我们到任何地方进行跟踪。” “还有其他人说,'好吧,不,只有在情况保持一致的情况下,就不会经常使用。'”
委员会成员和鹏Cro Benji Hutchinson说,制作报告对于机构来说应该很容易,但是协调和标准化可能更具挑战性。他说,执法的不同层次,它们之间的数据共享协议以及已经存在的摩尔可能会使透明度的努力变得复杂。
该报告称,执法小组委员会的建议还将包括在采用任何AI技术之前的性能测试,以及联邦政府对学术研究人员可以访问的身体相机录像的州级档案库的投资。
Brookings Podcast预示了最近的发展
鉴于美国当前的AI和公共政策发展,布鲁金斯机构的Techtank播客重新审视了2022年的一集,以应对人工智能对公民权利的影响。
国家博览会住房联盟的总裁兼首席执行官丽莎·赖斯(Lisa Rice)表示,“我们已经传递了几个世纪的歧视法”,建立了固有的偏见,这些偏见仍然是一支力量,并创造了种族差异的环境,将AI部署到其中。她说,这些法律的历史并没有在课堂上传授,而更多的人不相信他们的存在比对它们的了解。
赖斯还指出,国家博览会住房联盟当时的新框架基于“目的,过程和监视作为审计师的潜在工具。
弗吉尼亚大学居住和犯罪学家蕾妮·卡明斯(Renee Cummings)的数据活动家认为,需要问责制和透明度来推迟使用“黑人作为危险的数据点”的嵌入式使用。
卡明斯说,当AI部署在智能城市或执法申请中时,对技术和所涉及的机构的信任度较低的社区会受到监视,但尚未降低犯罪率。
赖斯说保护法律公民权利在书籍上,但是每个人都无法诉讼,“不幸的是,我们的联邦监管机构无法跟上这项技术。”因此,需要不同机制来确保问责制,透明度,解释性和可审核性卡明是指。
使用AI对联邦机构的额外报告责任可能会导致这一转变。
主持人妮可·特纳·李(Nicole Turner Lee)博士询问欧盟的特殊名称是否高风险AI应用对于我们的法规来说,可能是一个很好的例子,卡明斯回答说可能是,因为“法规是我们尚未正确的事情”。
史诗般的失败
电子隐私信息中心简要审查最近政府问责办公室的报告关于生物识别技术的担忧,强调了向GAO报告的大多数影响是负面的,并指出已经证明了最佳面部识别算法有偏见。
比起积极的利益相关者向GAO报告了负面影响,但GAO对如何理解这些报告采取了明确的怀疑立场。
报告说:“但是,有关积极影响和负面影响的信息受到限制,因为利益相关者在很大程度上提供了与轶事或第一手经验或潜在影响有关的例子。”
EPIC还宣称,GAO发现“即使是最佳算法也保留了受控实验室测试中的种族和性别偏见。”
该主张显然提到了GAO报告中更加细微的段落,该段落指的是国家标准和技术研究所。 Gao写道:“例如,在过去的四年中,面部识别的准确性已显着提高,最佳性能系统显示出实验室测试中不同人群的虚假负率的变化很小。” “在性能差异下降但差异仍然存在的情况下,这是不正确的。”
Nist在2022年说,最佳算法的假阳性差异是“无法检测到。”
对假阳性差异的最新评估1:n面部识别算法NIST显示所有组的假阳性(或“匹配”)的速率低于数十个算法的0.005。