(人工智能)已经以引人注目的方式重新配置世界。数据驱动我们的全球数字生态系统,人工智能技术揭示数据模式。
智能手机、智能家居和智慧城市影响着我们的生活和互动方式,人工智能系统越来越多地参与招聘决策、医疗诊断和司法判决。是否是这样的场景乌托邦的或者反乌托邦的取决于你的观点。
人工智能的潜在风险被反复列举。杀手机器人和大规模失业是普遍的担忧,而有些人甚至担心人类灭绝。更乐观的预测称人工智能将增加15万亿美元到 2030 年对世界经济的影响,并最终引导我们实现某种社会涅槃。
我们当然需要考虑这些技术对我们社会的影响。一个重要的担忧是人工智能系统会加强现有的社会偏见– 造成破坏性影响。
这种现象的几个臭名昭著的例子受到了广泛的关注:最先进的自动机器翻译系统产生性别歧视的输出,以及对黑人进行分类的图像识别系统作为大猩猩。
出现这些问题的原因是此类系统使用数学模型(例如神经网络)来识别大量训练数据中的模式。如果该数据以各种方式严重倾斜,那么其固有的偏差将不可避免地被训练有素的系统学习和复制。
有偏见的自主技术是有问题的,因为它们有可能边缘化群体例如妇女、少数民族或老年人,从而加剧了现有的社会不平衡。
例如,如果人工智能系统接受警察逮捕数据的训练,那么现有逮捕模式中表现出的任何有意识或无意识的偏见都将被“预测性警务”复制人工智能系统根据该数据进行训练。
认识到这一点的严重影响,各个权威组织最近建议所有人工智能系统都应该接受无偏见数据的培训。道德准则欧盟委员会于 2019 年初发布的报告提出了以下建议:
收集数据时,可能包含社会建构的偏见、不准确、错误和差错。在使用任何给定数据集进行训练之前需要解决这个问题。
处理有偏见的数据
这一切听起来都很合理。但不幸的是,有时根本不可能在训练之前确保某些数据集是无偏见的。一个具体的例子应该可以澄清这一点。
所有最先进的机器翻译系统(例如谷歌翻译)都是在句子对上进行训练的。
英语-法语系统使用将英语句子(“她很高”)与等效法语句子(“她很大”)。
在给定的一组训练数据中可能有 5 亿个这样的配对,因此总共有 10 亿个单独的句子。如果我们想防止生成的系统产生如下性别歧视输出,则需要从此类数据集中删除所有与性别相关的偏见:
- 输入:妇女们开始会议。他们工作效率很高。
- 输出:妇女们开始会议。他们工作效率很高。
法文翻译是于 2019 年 10 月 11 日使用谷歌翻译生成的,不正确:“伊尔斯“”是法语中的阳性复数主语代词,尽管上下文清楚地表明所指的是女性,但它仍然出现在这里。
这是一个典型的例子,说明由于训练数据的偏差,自动化系统优先选择男性默认值。
一般来说,70%翻译数据集中的性别代词是男性,30% 是女性。这是因为用于此类目的的文本往往更多地提及男性而不是女性。
为了防止翻译系统复制这些现有的偏见,必须从数据中删除特定的句子对,以便男性和女性代词在英语和法语两侧出现的比例为 50/50。这将阻止系统为男性代词分配更高的概率。
当然,名词和形容词也需要保持 50/50 的平衡,因为它们可以表明性别两种语言(“演员”、“女演员”;“neuf”、“neuve”)——等等。但这种大幅下采样必然会大大减少可用的训练数据,从而降低生成的翻译质量。
即使生成的数据子集完全性别平衡,它仍然会在各种其他方面(例如种族或年龄)出现偏差。事实上,消除所有这些偏见是很困难的完全地。
如果一个人只花 5 秒钟来阅读训练数据中 10 亿个句子中的每一个,那么需要 159 年才能检查完所有句子 - 而且这是假设愿意日以继夜地工作,没有午休时间的情况。
另一种选择?
因此,在构建人工智能系统之前要求所有训练数据集无偏见是不现实的。此类高级别要求通常假设“AI”表示数学模型和算法方法的同构集群。
事实上,不同的人工智能任务需要非常不同类型的系统。淡化这种多样性的全部范围掩盖了(例如)严重扭曲的训练数据所带来的真正问题。这是令人遗憾的,因为这意味着数据偏差问题的其他解决方案被忽视。
例如,如果系统在更大的、不可避免的有偏差的数据集上进行训练之后进行调整,那么经过训练的机器翻译系统中的偏差可以大大减少。
这可以使用更小、偏差更小的数据集来完成。因此,大多数数据可能存在强烈偏差,但对其进行训练的系统却不一定如此。不幸的是,那些负责制定人工智能研究指南和立法框架的人很少讨论这些技术。
如果人工智能系统只是加剧现有的社会失衡,那么它们就会阻碍而不是促进积极的社会变革。如果我们每天越来越多地使用的人工智能技术比我们的偏见要少得多,那么它们可以帮助我们认识并面对我们自己潜在的偏见。
当然,这才是我们应该努力的方向。因此,人工智能开发人员需要更仔细地思考他们构建的系统的社会后果,而那些撰写人工智能文章的人需要更详细地了解人工智能系统的实际设计和构建方式。
因为如果我们确实正在接近技术田园诗或启示录,那么前者会更好。