每当一项新的革命性技术出现时,道德和法律问题很快就会出现:它的使用限制是什么?如何保证不会给用户造成不良后果?如果出现问题谁负责?
人工智能也不例外。考虑到这项技术(尤其是机器学习的变体)对我们日常生活日益增长的影响,道德问题就显得尤为重要。人工智能算法决定我们在互联网上看到的内容,评估我们的信誉,副驾驶我们的飞机和汽车,建议我们购买的产品,帮助医生检测我们的疾病并开药,可以在家中或其他地方识别我们的声音和面孔, ETC。
自动驾驶汽车的棘手问题
但为项目创建道德框架并不那么容易。仅仅实现艾萨克·阿西莫夫 (Isaac Asimov) 在 1942 年设想的机器人三定律还不够。这些定律很适合讲故事,但它们过于简单化,正如自动驾驶汽车的例子所示。由于我们永远无法消除发生事故的风险,因此我们必须提前预见自动驾驶仪必须根据多种不同情况做出的艰难决定。如果事故不可避免,但最终的轨迹可以调整,那么应该优先考虑什么?我们是否应该拯救两位过马路老人的生命,即使这意味着撞墙并杀死年轻乘客?我们是否应该比男性更保护女性的生命?是儿童的而不是老人的?富人的利益损害了穷人的利益?
和全球调查于2018年进行,并受洗《道德机器实验》,表明并非所有人都有相同的看待事物的方式。在个人主义社会,例如北美国家,我们更愿意拯救尽可能多的人,而不管受害者的个人特征如何。在集体主义社会,例如某些亚洲国家,我们更愿意保护老年人的生命而不是年轻人的生命。在法国等拉丁国家,我们往往比男性更希望保护女性的生命。简而言之,规则有时不仅制定起来很复杂,而且并不总是能够使它们具有普遍性。但这并没有阻止德国在 2017 年制定一项第一份道德指南用于开发自动驾驶和联网汽车。
然而,即使我们对必须尊重的道德框架有清晰明确的想法,我们也永远无法避免偏见,也就是说,我们不会避免系统性错误,但与制定的规则相关的是非自愿的。这例子在这个领域有很多。 2015年,谷歌图像识别将非洲裔美国公民误认为大猩猩。 2016年,微软的一个聊天机器人突然启动突然像个新纳粹分子一样说话。同年,ProPublica 网站透露,用于评估累犯风险的软件 Compas 对美国黑人的案件影响很大,因此,黑人比美国白人受到了更重的刑罚。
这些偏差很难预测。就 Compas 而言,开发人员从分析数据中删除了与种族或地理出身相关的数据,以避免此类歧视。然而,该软件产生了严重的种族偏见。“由于数据之间可能存在相关性,机器学习程序可能会重新引入我们最初想要消除的偏见。 Compas 案例表明仅删除数据是不够的 »IBM 法国软件实验室的技术专家 Rachel Orti 在 2019 年巴黎人工智能大会上解释道,此后成立了多个组织,将道德规范融入到机器学习算法中。其中:AI For Good Foundation、Data For Good、Fair By Design、算法正义联盟、算法观察、道德人工智能与机器学习研究所等。
必须制定道德流程
那么,我们怎样才能防止人工智能犯错,不做善事而作恶呢?不幸的是,尊重公平和非歧视并不是一门精确的科学。“没有任何软件库可以让你在软件中实现公平性。这是必须通过应用良好实践和建立必须准确记录的流程来解决的问题”Facebook 人工智能实体总监华金·奎诺内拉·坎德拉 (Joaquin Quinonera Candela) 在巴黎举行的新闻发布会上解释道。
一个好的起点是咨询七项道德原则欧盟委员会于 2019 年 4 月颁布法令,旨在吸收自 2018 年 5 月起生效的欧洲 GDPR 法规所设定的法律约束。第 22 条特别规定,“自动化处理”一般来说,不能根据个人数据做出决定,例如种族出身、政治观点、宗教信仰等。
对抗偏见需要让不同的人参与发展项目,无论是性别、种族、社会、智力、专业出身等。“人们越多样化,关于人工智能软件对人们生活的影响的问题就越多。因此,我们将能够从设计阶段就考虑更多场景”IBM 法国软件实验室的开发人员 Mélanie Rao 强调道。
偏差可能存在于机器学习系统的不同部分。如果某些群体的代表性过高或过低,用于训练算法的数据可能会产生偏差。数据标记时也可能产生错误。这是手工完成的,依赖于人类的判断,因此可能会犯错并且存在偏见。一个典型的案例是Facebook上虚假信息的检测。“这很复杂,因为虚假信息的定义因人而异。因此,有必要拥有多元化的监管者”” 华金·奎诺内拉·坎德拉 (Joaquin Quinonera Candela) 解释道。
算法处理标记数据并得出评估的方式也可以发现偏差(例如:错误信息的概率)。以及该评估将如何生成决策(例如:这确实是错误信息)。“最终,必须很好地校准预测,并且必须避免不同用户组之间的差异”Facebook AI 总监强调道。
工具和指标
好消息是,开发人员开始拥有一系列开源工具,使他们能够检测这些偏见。这些工具依赖于概率“指标”,如果偏离正常值,就会生成警报和解决问题的途径。 IBM 提供了名为“AI Fairness 360”的软件,包含 70 多个指标。 Pymetrics 公司创建了“Audit AI”,这是一个用于测试大约十个指标的 Python 库。 Google 提供了“假设工具”,允许您使用 5 个指标和一个“阈值变量”。就 Facebook 而言,它开发了一个名为“Fairness Flow”的内部工具,该工具不是免费提供的。
但即使有了这些工具,我们也不能避免令人不快的意外情况。“困难在于为给定的人工智能选择正确的指标。这是根据具体情况进行的””,梅兰妮·拉奥解释道。显然,如果我们不选择正确的指标,我们就有可能无法发现某些隐藏的偏见。
简而言之,正如我们所看到的,创建道德和负责任的人工智能软件远非易事。这是一段充满陷阱和陷阱的旅程。为了实现这一目标,不仅需要拥有丰富的技术专业知识,而且还需要确保尊重开放的流程,从而允许控制和监控每个开发阶段。复杂的。