每次出现新的革命技术时,道德和法律问题都很快就出现了:它的使用限制是什么?如何确保它不会对用户造成有害后果?如果出现问题,谁负责?
人工智能也不例外。鉴于这项技术的影响,尤其是其自动学习的变体,道德问题甚至对我们越来越多的日常生活的影响都特别重要。人工智能算法确定我们在互联网上看到的内容,评估我们的偿付能力,合并我们的飞机和汽车,为我们提供购买产品,帮助医生发现我们的疾病并开出药物,可以在家里或其他地方认识我们的声音,等等。
棘手的自动驾驶汽车问题
但是,为程序创建道德框架并不容易。这还不足以实施艾萨克·阿西莫夫(Isaac Asimov)在1942年想象的三种机器人法则。这些定律非常适合叙事,但是它们太简单了,如自动驾驶汽车的示例所示。由于我们将永远无法消除事故的风险,因此有必要事先提供自动飞行员必须根据许多各种不同案件做出的棘手决定。如果不可避免地发生事故,但是可以调整最终轨迹,那么应该受到青睐?我们是否应该挽救两个穿越马路的老年人的生命,即使这意味着要进入墙壁并杀死年轻的乘客?我们应该比男人多保护女性的生命吗?那个孩子而不是老年人?富人损害了穷人的损害?
和全球调查在2018年进行,受洗«道德机器实验»,表明并非所有民族都有相同的看法。在像北美国家一样,在个人主义社会中,无论受害者的个人特征如何,我们都希望节省尽可能多的人。在集体主义社会中,像某些亚洲国家一样,我们更愿意保留老年人与年轻人相比的生活。在拉丁国家,像法国一样,我们倾向于比男人更能保护女性的生活。简而言之,不仅规则有时是复杂的,而且并非总是有可能使其普遍。这并不能阻止德国在2017年制定第一个道德指南为了开发自主和连接的汽车。

但是,即使我们对必须尊重的道德框架有清晰明确的想法,我们永远不会免疫偏见,也就是说,与所提出的规则相比,有一个系统的但非自愿的错误。这例子在这个地区很多。在2015年,对Google的图像的认可使非裔美国人公民与大猩猩混淆。 2016年,Microsoft聊天机器人从一个打击像新纳粹一样说话。同年,ProPublica网站透露,累犯评估软件受洗的Compas对黑人美国人的案件有着沉重的帮助,这些案件突然与白人美国人相比,他们突然感到沉重的悲伤。
这些偏见很难预测。就指南针而言,开发人员从分析数据中删除了这些数据,这些数据是在种族或地理位置的起源,以避免这种类型的歧视。然而,该软件产生了重要的种族偏见。“由于数据之间可能存在的相关性,因此自动学习程序可能会重新引入我们要在基础上消除的偏差。指南针的情况表明,删除数据还不够”在AI Paris 2019会议之际,来自法国IBM的软件实验室的技术专家Rachel Orti解释说。其中:良好基础的人工智能,良好的数据,公平设计,算法正义联盟,算法观察,伦理AI和机器学习研究所,等等。
必须设置道德过程
但是,如何防止人工智能经历并造成伤害而不是做好事?不幸的是,尊重公平和非歧视不是确切的科学。“没有软件书店可以在软件中实施权益。这是必须通过应用良好实践和建立必须精确文档的过程来解决的事情”,在巴黎的新闻发布会上,Facebook实体AI的董事Joaquin Quinonera Candela解释说。
一个好的起点是咨询七个道德原则欧洲委员会于2019年4月颁布,并吸收欧洲RGPD法规制定的法律限制,自2018年5月以来进入应用程序。特别是第22条“自动处理”总的来说,不能基于个人数据做出决定,例如种族渊源,政治观点,宗教信仰等。

然后,反对偏见的斗争涉及各个人参与发展项目,无论是在性别和种族,社会,知识分子,专业等方面“那里的人会越多,与人工智能软件对人们生活的影响有关的问题越多。因此,我们将能够考虑更多数字的情况,从设计阶段”,强调法国IBM的实验室软件开发人员MélanieRao。
偏见可以坐落在自动学习系统的不同部分中。如果某些组代表过多或代表性不足,则用于引起算法的数据可能会产生偏差。在数据标记时也可以生成缺陷。这是手工完成的,是基于人类的判断,因此可能有违规和有偏见。一个典型的情况是检测Facebook上的虚假信息。“这很复杂,因为虚假信息的定义可能因一个人而异。因此,有必要拥有各种各样的主管”,Joaquin Quinonera Candela解释。

偏见也可以依靠算法处理标记的数据并获得评估的方式(例如:它是错误信息的概率)。以及本评估将产生决定的方式(例如:这是错误的信息)。“最后,必须对预测进行校准,我们必须避免不同的用户组之间的分歧”,强调Facebook AI的主任。
工具和指标
好消息是,开发人员开始拥有一个开源工具,使他们能够检测到这些偏见。这些工具依赖于概率的“指标”,如果它们偏离正常状态,它将生成警报和跟踪以解决该问题。 IBM提供了称为“ AI Fairness 360”的软件,具有超过70个指标。该公司的Pymetrics创建了“ Audit AI”,这是一家Python书店,用于测试数十个指标。 Google提供了其“ What-iif工具”,可让您使用5个指标和“阈值驱动器”。就其本身而言,Facebook开发了一种名为“公平流程”的内部工具,该工具无法自由使用。
但是,即使有了这些工具,我们也无法免除令人不愉快的惊喜。“所有的困难都是为给定的人工智能选择正确的指标。这是在案例的基础上完成的”,解释说MélanieRao。显然,如果我们不选择正确的指标,我们可能不会发现某些隐藏的偏见。
简而言之,我们可以看到的是,道德和负责任的人工智能软件的创建远非容易。这是一段带有陷阱和陷阱鞋的旅程。要到达那里,不仅有必要出色的技术,而且还必须确保符合开放过程,该过程允许控制和监视开发的每个步骤。复杂的。