研究算法审计的研究论文的合着者萨沙·科斯坦扎·乔克(Sasha Costanza-Chock)说,有许多领域需要改进以加强该过程的有效性并减少现实世界中AI中使用的偏见的危害,例如面部识别系统。
谈到算法正义联盟有关技术新闻播客的最新一集的论文市场,Costanza-Chock认为,很难确定当前分配中算法审计的有效性,因为不披露协议绑定了第一和第二方审计师,这些审计师可以更多地访问他们正在审计的公司的数据和系统。
在算法中发现了偏差,不仅与生物识别匹配有关,而且相邻领域LIVISINE检测,以及无关的AI应用程序。
合着者说,在整理研究论文的同时,该论文确定了新兴的最佳实践以及AI审计的方法和工具,但团队发现算法审计过程中存在许多变化,因为审计师应该寻求哪些内容的统一标准或法规。尽管一些审核的重点是培训和样本数据的准确性或公平性,但有些审计着眼于审计系统中的系统的隐私和安全性影响,他们与他们交谈的大约一半的审计师表示,他们检查了他们检查以确定公司是否具有优质系统来使用户实时引导AI偏见危害。
她说:“好吧,现在只有一半的审计师说,他们正在寻找一种受到伤害向公司报告危害的人的方式。这是我们认为在任何审计中都应该考虑的事情。但这并不是一直在发生。”
关于在算法审计方面是否有任何努力在提高透明度和责任制方面,Costanza-Chock表示,这是一件很难的事情,因为有几个因素,包括对审计结果的公众非批准。但是,她认为这可能会在将来发生变化,因为调查指出,对算法审计法规的广泛接受。
“现在,人们呼吁监管机构仔细审核系统。
除了拥有可以轻松提交AI伤害投诉的平台外,算法正义联盟进行的研究还呼吁公司从社区收集足够的反馈,这些反馈在开发系统的过程中早期就有危害风险。
同时,Youtube 视频总结研究的进行方式,并提出五个政策建议,以解决算法审核中的某些问题
该视频解释说,该研究捕捉了438个人和189个从事AI审核的组织的观点,其工作与算法审计直接相关。接受采访的一些审核员在审核方面具有丰富的经验,这些经验涉及社交媒体,就业,消费品,保险和信贷的行业使用,而其他视频则具有在州和地方政府工作的经验。
在这项研究中,有82%的审计师认为应法律规定公开审计结果的公开披露,其中约有一半的人认为应该有法规来明确定义算法审计必须需要的。但是,其他人认为应该有标准和准则,但没有明确的定义。
文章主题
准确性|人工智能|算法问责制|算法正义联盟|算法|审核|最佳实践|生物识别匹配|生物特征偏置|生物识别技术|面部识别|研发