根据人工智能(AI)专家的说法,亚马逊应停止向执法机构提供重新认知面部识别软件。
几位AI学者呼吁亚马逊和其他科技公司停止其计划的所有销售,因为他们发现人们的方式存在错误。事实证明,许多面部识别软件无法阅读深色皮肤个体的面孔。
专家认为,这种故障可能会导致对有色人种的机构偏见。
面部识别软件中的故障
面部识别软件的问题首先是由马萨诸塞州技术研究所研究员Joy Buolamwini发现的。
Buolamwini对此类软件的能力进行了广泛的评论准确认识人的面孔。她发现,与皮肤较轻的男性相比,许多计划在识别皮肤肤色较深的女性性别方面具有更高的错误率。
她的发现帮助一些科技公司(例如Microsoft和IBM)进行了自己的审核并改善了他们的审核面部识别软件。
但是,亚马逊仍然坚持其重新认知计划,公开批评Buolamwini及其发现。
Buolamwini的AI专家,包括今年的Turing奖得主Yoshua Bengio,在她身后集结起来,以捍卫她的工作的信誉。他们敦促亚马逊停止提供其软件警察和其他执法机构。
几位政客还开始研究如何限制这种软件来分析人们脸部的方法。
Buolamwini认为,个人应该对如何使用计算机视觉工具有发言权。
麻省理工学院的研究人员说:“需要一个选择。”说。
“目前,正在发生的事情是这些技术被广泛部署而没有监督,通常是秘密的,因此当我们醒来时,这几乎为时已晚。”
同时,班吉奥给他通过发送给彭博社的电子邮件对这个问题的想法。
他强调了关于使用新技术在社会和道德上可以接受的讨论的重要性。他说,最近的案件使人们明确地阐明了这种担忧,这是提高人们对此事认识的好方法。
Bengio希望这将导致科技公司采用内部规则和政府机构执行法规,以确保与同行相比,“行为最畅销的公司”不会处于不利地位。
AI偏见的可能性
过去,许多研究人员对AI被滥用的可能性提出了担忧。他们担心可以对这种软件进行编程以模仿开发这些软件的某些偏见。例如,如果程序员主要使用白人照片喂食他们的AI,那么该程序在扫描白人面孔时会效果最好。
这可能会导致严重的事件,例如针对无人驾驶汽车的AI计划。先前的研究建议某些计算机视觉软件在识别肤色较深的行人方面遇到困难。
需要解决面部识别软件的此类问题,尤其是因为越来越多的政府机构和企业开始为其运营采用此类计划。