早在5月,一群教授和博士学位。宾夕法尼亚州哈里斯堡大学的学生声称为了开发自动生物识别面部识别软件,以根据没有偏见的面部特征来预测个人的犯罪行为。
不仅公告在生物识别行业激发愤怒,但是现在有超过500多名技术专家和社会学家在关键技术联盟下团结了一封信给出版商Springer自然,要求推迟所有据称预测犯罪行为的研究,OneZero。
“这项工作及其潜在吸收的发表如何合法化,激励,货币化或以其他方式实现歧视性结果和现实世界的伤害?”组织者写道。 “这些问题不是抽象的。”
在最初的新闻稿中,该大学声称该工具的目的是在执法部门中使用,并且它具有80%的准确性,没有偏见。大学撤回新闻稿后,大学表示将发布更新,但无法立即发表评论。 Springer Nature声称该项目被拒绝。
该联盟说,这项研究是其他努力的一部分,几乎没有科学理由,这些理由一直在学术界出现。尽管揭示了这些研究,但仍有研究工作暗示一个人的脸与他们的行为之间存在联系。
纽约大学(NYU)兼联盟成员的研究科学家西奥多拉·烘干机(Theodora Dryer)告诉OneZero:“过去50年来,黑人妇女和黑人学者和从业人员对这项工作进行了批评。” “他们一次又一次地展示了犯罪性的预测在本质上是种族主义的,并且对排除它们的权力结构的生殖是生殖。”
这封信也由生物识别技术研究人员签署放置Buoymwini,,,,使用的timnit和inioluwa黛博拉·拉吉(Deborah Raji)。这三个都有赢得了良好类别的AI在VentureBeat的AI创新奖中,他们研究了面部识别算法偏见的研究。
联盟写道,数据是由“种族主义刑事司法系统和一系列法律”提供的,导致该算法可能是种族主义者。
麦吉尔大学媒体,技术,民主,民主,民主,民主和签署的信件的研究总监Sonja Solomun说:“无法预测犯罪。
哈里斯堡大学并不是唯一出版此类工作的机构。 2016年,一所汉大学的学者声称他们的技术可以根据面部分析和无偏见来预测罪犯。该算法是由Google和普林斯顿研究人员揭穿的,他们在2018年的研究人员Michal Kosinski进行的研究中也无效,他们声称他的算法可以确定性取向。
研究人员当时写道:“像计算机或内燃机一样,AI是一种通用技术,可用于自动化许多任务,包括首先不应执行的任务。”