文章分析亚马逊关于面部识别技术准确性的公开声明声称,该公司“掩盖了与之相关的真正风险”。
政府监督项目(POGO)文章介绍了亚马逊指导的时间表,首先是一篇博客文章,该文章描述了一个用例,2017年6月的信心门槛设置为85%。ACLU实验该公司挑衅地将国会黑人与犯罪的露骨相匹配,该公司指出,它指导客户使用至少95%的信心门槛,并建议使用99%对于ACLU进行的那种比较。当麻省理工学院研究员乔伊·布拉姆维尼(Joy Buolamwini)提出研究表明可能种族和性别偏见技术问题,亚马逊驳斥了调查结果并重新确定了99%的推荐信心阈值设置。
华盛顿县警长办公室是少数已知使用重新认知的执法机构之一,然后承认不使用一个信心门槛,一对AWS代表在一月份在Twitter上表示支持他们的方法,但该公司再次重申了99%的信心门槛的重要性负责使用指南。 Pogo提出的时间表结束了研究人员写的信亚马逊敦促它停止将重新认知出售给执法部门,并批评其对以前的批评和第三方测试的反应。
本文讨论了置信阈值的性质和重要性,并指出结果通常以有限的候选人名单以及无限制的候选人名单或单一匹配响应的形式显示。
Pogo的《宪法项目》高级顾问杰克·拉帕鲁克(Jake Laperruque)总结说:“如果执法实体将使用面部认可,使执法人员,立法者和公众对技术的工作效果(或差)清楚地描述了该技术对公民权利和公民自由以及公共安全的表现至关重要。”
Alexa的注释人被低估了
根据俄罗斯记者莱昂尼德·贝尔希德斯基(Leonid Bershidsky)撰写的一份观点文章,人工智能的炒作与现实之间的对比已经暴露出来的消息是,一支大型亚马逊员工致力于聆听人们与数字个人助理的互动。彭博。
Bershidsky指出,即使是强大的AI语音识别系统也必须不断注释,以跟上语,口音转移和文化现象。但是,与“深度学习”等短语相比,它的营销戒指少。他还指出,亚马逊注释员工的访问与亚马逊戒指员工的访问相似拦截据报道,今年早些时候,观看了客户在家外部和内部获得注释视频的镜头。 Bershidsky写道,在这两种情况下,亚马逊的反应都是“对滥用我们的系统的容忍度为零”。
记者认为,适当的反应是让公司对人为人类的角色开放。他说,这将使AI神秘化,并可能对某些产品产生负面影响,但是市场仍然存在,而没有其“肮脏的秘密”。
希望,越来越多地关注AI的特定方面,例如信心阈值和注释过程工作将如何改善有关技术及其应用的社会对话的成熟度。