微软正在通过开发一种自动检测AI算法中偏差的工具来应对偏见的日益认识,即无意中嵌入软件中的偏见,麻省理工学院技术评论报告。
研究表明,当领先面部识别算法的准确率差异很大应用于不同人群,并带有算法指导刑事量刑并将个人标记为潜在的安全威胁,美国房屋小组委员会已经检查了该问题对政府采用AI的影响。
高级Microsoft研究人员Rich Caruna告诉《评论》,诸如透明度,清晰度和解释之类的事情对该领域的新事物足够新,足以使我们有足够的经验了解我们应该寻找的一切以及偏见可能潜伏在模型中的所有方式。”
Caruna是建立偏见检测仪表板的团队的一部分,尽管他警告不要过度依赖使用软件的警务软件。
卡鲁纳说:“当然,我们不能期望完美 - 总是会有一些偏见,或者无法消除,目标是尽我们所能。” “公司现在可以做的最重要的事情是教育他们的劳动力,以便他们意识到偏见可以出现和表现出来的多种方式,并创建工具,使模型更易于理解和偏见更易于检测。”
Facebook还在本月初的开发人员会议上推出了其公平流量算法公平评估工具。
文章主题
准确性|人工智能|生物特征偏置|生物识别技术|面部识别|微软