奥塔哥大学的一对学者呼吁新西兰政府建立一个新的独立监管机构来监视人工智能技术,并解决与政府机构使用相关的风险。在帖子中对话博士后研究员约翰·泽利里(John Zerilli)和法律和道德副教授科林·加瓦格(Colin Gavaghan)说,该国是政府AI的领导者,但必须解决对透明度,有意义的人类控制,数据保护和偏见的担忧。
他们的92页报告(PDF)考虑了新西兰法律和政府AI实践的现状。研究人员建议创建政府使用的预测算法的公共登记册,也许是解释系统,并考虑了推断数据的法律地位。还指出了基于“肮脏数据”的偏见和歧视的风险,以及通过在AI工具的公开评估中包括特定子人群的结果来减轻这种风险。
从非营利组织中,还涉及“算法偏见检测和缓解算法偏见检测和缓解:减少消费者危害的最佳实践和政策”的报告。布鲁金斯机构。布鲁金斯报告认为,运营商和其他利益相关者需要主动解决导致偏见的因素。
为了帮助这一努力,提出了“算法卫生”的框架,确定了一些特定的偏见原因,以及与之打交道的最佳实践。作者写道,该报告的目的是将计算机程序员和行业的关注与政策制定者和民间社会并列。来自行业,学术界和民间社会的40多名思想领袖为报告和框架做出了贡献。
建议包括更新法律,以适用于数字实践,实施一组自我调节的最佳实践以及提高算法素养并促进行业与民间社会之间的反馈的系统。
该报告列出了算法偏见的例子,描述了偏见检测策略,并讨论了公平与准确性之间的权衡。它强调了道德框架的重要性,并为缓解偏见提供了建议。还提供了一个由16个问题组成的偏见影响声明的模板。
在总而言之,作者警告说,在美国刑事司法系统中使用算法可能会使偏见永存,并为非裔美国人和穷人判处更长的徒刑。
作者写道:“正如论文中概述的那样,这些类型的算法应关注是否没有一个过程将技术的勤奋,公平性和公平性从设计到执行。” “也就是说,当算法是负责任地设计时,它们可能会避免放大的系统歧视和不道德应用的不幸后果。”
在过去的几年中,潜在的AI偏见问题受到了越来越多的关注,最近的《福布斯》社论表明,一些公司可能需要考虑创建“首席偏见官”位置对抗它。