
去年3月,微软在Twitter上发布了一个人工智能的聊天机器人Tay时,事情发生了一个灾难性的转变。在24小时内,该机器人在种族主义者中涌出了新纳粹狂欢,其中大部分是通过结合与之互动的Twitter用户的语言来挑选的。
不幸的是,新的研究发现,Twitter巨魔并不是AI设备可以学习种族主义语言的唯一途径。实际上,任何人人工智能根据科学家的说法,从人类语言中学到的可能会以与人类相同的方式消失。
研究人员进行了广泛使用的实验机器学习系统称为单词表示(手套)的全球向量,发现他们测试的每种人类偏见都出现在人工系统中。 [超级智能机器:7机器人期货这是给出的
普林斯顿大学计算机科学博士后研究员Aylin Caliskan说:“看到这些模型中嵌入的所有结果真是令人惊讶。”她告诉Live Science,即使是对Wikipedia或News文章(如Wikipedia或News文章)进行“训练”的AI设备,以反映出人类的常见偏见。
内置偏见
手套是一种用于从文本中提取关联的工具 - 在这种情况下,是从万维网中提取的标准语言。
心理学家早已知道人脑根据单词之间的基础含义之间的关联。一种称为隐式协会测试的工具使用反应时间来证明这些关联:人们看到一个像“ daffodil”之类的词以及宜人或不愉快的概念(例如“痛苦”或“美”),并且必须使用密钥媒体快速将术语快速关联。毫不奇怪,鲜花与积极概念更快相关。例如,武器更快地与负面概念相关联。
IAT也可以用来揭示人们对社会或人口群体的无意识协会。例如,某些IAT在项目隐式网站发现人们更有可能自动将武器与黑人美国人和无害的物体与白人美国人联系起来。
研究人员说,关于这些结果意味着什么的辩论。人们之所吸收他们的语言从统计学上讲,这更有可能与少数民族,老年人和其他边缘化群体密切结合使用负面词?
数字刻板印象
Caliskan和她的同事开发了用于计算机的IAT,它们将其称为WEAT,用于单词插件协会测试。该测试测量了手套表示的单词之间的关联强度,就像IAT测量的强度一样人脑中的单词关联。
对于测试的每个关联和刻板印象,Weat返回了与IAT相同的结果。机器学习工具再现了鲜花与愉快的单词之间的人类关联。昆虫和不愉快的单词;乐器和愉快的话;还有武器和不愉快的话。在一个更令人不安的发现中,欧洲裔美国人的名字比非裔美国人的名字更愉快。它还更容易将男性名字与职业单词相关联,而女性名字则更容易用家庭单词。男人与数学和科学以及与艺术的女性更加紧密相关。与老年人相关的名字比与年轻人相关的名字更令人不愉快。
卡利斯斯坎说:“我们很惊讶我们能够复制过去数百万次执行的每一个IAT。”
研究人员使用第二种方法,发现机器学习工具能够从其语义关联中准确地代表有关世界的事实。将手套的单词插入结果与真正的美国劳工统计局有关职业中妇女百分比的数据进行比较,Caliskan发现,在这些职业中,手套将手套视为“女性”的职业之间存在90%的相关性。
换句话说,从人类语言学习的程序卡利斯斯坎说,尽管这种文化(例如刻板印象和偏见)是有问题的。人工智能也很难理解人类容易掌握的背景。例如,关于马丁·路德·金(Martin Luther King Jr.)因在阿拉巴马州伯明翰举行的民权抗议而入狱的一篇文章可能会将许多负面词与非裔美国人联系起来。一个人会合理地将故事解释为美国英雄的正义抗议之一。一台计算机将在其“黑色=监狱”类别中添加另一个计数。
卡利斯斯康说,保持准确性的同时获得AI工具以了解公平是一个巨大的挑战。 [人工智能的简短历史这是给出的
她说:“我们认为消除偏见不一定会解决这些问题,因为这可能会破坏世界的准确代表。”
公正的AI
这项新研究于今天(4月12日)在线发布杂志科学哈弗福德学院的计算机科学家索雷尔·弗里德勒(Sorelle Friedler)说,这并不奇怪。她说,这很重要。
弗里德勒告诉Live Science:“这是使用许多系统建立的标准基础方法。”换句话说,偏见可能会渗透到任何使用手套或从人类语言中学习的AI。
弗里德勒(Friedler)参与了一个新兴的研究领域机器学习的公平,问责制和透明度。她说,没有简单的方法可以解决这些问题。她说,在某些情况下,程序员可能能够明确地告诉系统自动忽略特定的刻板印象。在任何涉及细微差别的情况下,可能需要循环介绍人类以确保机器不运行AMOK。 Caliskan说,这些解决方案可能会有所不同,具体取决于AI的设计,它们是用于搜索应用程序,进行决策还是其他事情?
在人类中,隐性态度实际上与对社会群体的明确态度并不密切相关。心理学家争论为什么这是:人们是否只是对自己的偏见保持妈妈以避免污名?做IAT实际上不能测量偏见那好吗?但是,看来人们至少有能力与对对与错有关。她和她的同事认为,人类将需要参与其中 - 编程代码需要透明 - 以便人们可以对机器的公平做出价值的判断。
卡利斯康说:“在有偏见的情况下,我们知道如何做出正确的决定,但不幸的是,机器并不是自我意识。”
原始文章现场科学。