在这一点上,没有算法的创造者对AI伦理辩论一无所知。到目前为止,用户是一个不同的故事,但制造商知道他们有责任在面部生物识别系统中平衡风险与好处。
在英国之外的一篇新论文应该引起人们的兴趣。它是对制造商以及最终用户可以使用的工具的坚实会计,以更好地确保算法在道德上采购,开发和部署。
许多研究都着眼于工具包,从公平和审核到影响评估和设计的所有内容。它分解了谁在组织或价值链中通常使用的工具,该工具在结果的哪个阶段,即使用工具的生物识别技术和其他指南。
详尽无遗工作是由南安普敦大学的一对研究人员完成的。
在AI行业中,涉及数据(尤其是大数据)以及2017年至2020年的数据保护的崇高概念讨论已逐步介绍了针对模型和算法的实践辩论。对于那些考虑道德的人来说,数据仍然是一个关键的考虑。它刚刚在2021年拥有公司。
有一些例外对于通风,哲学上的企业群,但结果非常混杂。迄今为止大多数政府工作集中原则。
在39个被判断为“具体”和“实用”的工具中(可能是收集的最大的AI伦理工具),有36个是内部自我评估文件。而且,在大多数情况下,没有任何东西可以促使工具结果发布。
作者将这些工具与其他行业和角色(例如环境影响文件)的工具进行了比较,发现了所有令人震惊的。
他们发现,只有IEEE标准需要外部验证,并且有两个工具涉及公共登记册以迫使透明度。
外部来源的道德审查和评估必须有更多的空间,以避免群体思考和过度收入压力,这可能会损害生物识别系统发展和更大的社会。
同时,工具必须包含在内。最终用户和消费者等人几乎没有机会参加审计和评估。
这可能是最令人惊讶的发现,从资金到更新和升级通常是供应商的事件。从历史上看,反馈已被解雇:“您只是用户。”