对于某些人来说,很难理解,最常见的(但仍然晦涩难懂)的肤色尺度之一,Fitzpatrick皮肤类型梯度,描述了四种“白色”音调,一种“黑色”音调,一种“棕色”音调,没有其他。
FST已被用来预测晒伤的风险,制造化妆品,颜色表情符号,并且不可能对世界各地的每个人的皮肤进行分类,这些人曾经通过机器视觉录制或在线发布照片。
上周,Google高管表示祝贺说他们正在以新的肤色量表进行工作,这似乎没有生成以反映布雷迪束电视节目的演员表。
对于Google来说,这是一种进度。
在2015年是成立在其照片应用程序中自主将某些有色人种分类为“大猩猩”,“黑猩猩”,“黑猩猩”和“猴子”。高管承诺要修复算法,但不清楚是否找到并实施了公司范围的解决方案。
在过去的七个月中,Google开火据报道,一对AI道德研究人员批评该公司如何处理其算法偏见。
2020年10月,美国国土安全部赞助的生物识别技术聚会的与会者,国际面部表现会议,说应更换梯度。他们说,这是人类多样性不足的。
路透社在一篇独家文章中报道说,在其记者向Google询问其使用FST之后,该公司表示会找到替代方案。据路透社报道,这是谷歌说的第一次,其职位使Google领先于同龄人。
据微软称,他们的同龄人包括微软,苹果和加尔金,他们都雇用了与健康相关产品的FST。
对于FST在AI中使用的支持者来说,梯度只是用于编写算法的众多工具之一,并且并不重要。但是,美国国家标准技术研究所(美国国家标准技术学院)创造了一个持续的面部识别算法质量排名,称为面部识别供应商测试,发现很难隔离算法中的问题。
在面部识别技术中报告NIST指出,涉及错误来源,“一个阶段的错误通常会带来下游后果。”