一份试图将性别建模为连续性建模的研究论文已发布给Arxiv.org,以减少性别分类的面部识别应用程序的包容性,但正在接受该领域另一位研究人员的严重批评,VentureBeat报告。
'面部图像中的性别分类和偏见缓解'是由哈佛和Autodesk隶属的四名研究人员撰写的,并建议更多的包容性数据库来减轻对LGBTQ和性别非二元人的偏见。
然而,华盛顿大学AI研究人员OS Keyes告诉VB,该论文的作者“在将性别视为生理和视觉上以固定方式和更加灵活和上下文为模型之间来回走动”,并表达了怀疑主义,即从小组中的任何人都咨询了论文的重点。
几个小组和司法管辖区的重点是人口绩效差异和面部识别中偏见的指控,同时考虑或要求禁止其某些或全部用途。 VentureBeat声称,计算机机械协会(ACM)呼吁暂停面部识别的所有用途,尽管实际陈述该小组指定可以“偏见建立的人类和法律权利”的申请。
研究人员说,基准数据库中缺乏LGBTQ表示可以掩盖用于性别分类的机器学习工具的性能,并试图通过构建由9%的“包容性”数据库来改善性别分类系统的性能,这些数据库由9%的人组成的人组成的LGBTQ和第二个数据库的人独家识别为自我认同的人,而这些数据库是自我认同的。
根据凯斯(Keyes)的说法,这种自我认同是有问题的资格,这表明所有性别转变程序都会对人们的面孔产生重大变化。这项有争议的研究被格拉德和人权运动描述为“垃圾科学”。
研究人员说,他们的系统在分类性别非二进制个人方面的准确性为91.97%。凯斯说,对性别的非自愿定义本质上不能“跨性别”。