人工智能聊天机器人有政治偏见,可能会不知不觉地影响社会
(Grandriver/E+/盖蒂图片社)
发动机大型语言模型(法学硕士)正成为一种越来越容易获得答案和建议的方式,尽管已知种族和性别偏见。
一项新研究发现了强有力的证据,表明我们现在可以将政治偏见添加到这个列表中,进一步证明了新兴技术有可能在不知不觉中甚至恶意地影响社会的价值观和态度。
这项研究由新西兰奥塔哥理工学院的计算机科学家 David Rozado 发起,并提出了一个问题:我们可能会如何受到我们日常生活中机器人的影响?。
Rozado 进行了 11 份标准政治问卷调查,例如政治指南针测试在 24 个不同的 LLM 上进行了测试,其中包括 OpenAI 的 ChatGPT 和谷歌开发的 Gemini 聊天机器人,并发现所有模型的平均政治立场并不接近中立。
“大多数现有的法学硕士在通过各种政治倾向测试评估时都表现出中左政治倾向,”说放牧了。
平均而言,左倾倾向并不强烈,但很明显。对自定义机器人的进一步测试(用户可以在其中微调 LLM 训练数据)表明,这些人工智能可能会受到影响,从而表达使用中左或中右的文本。
Rozado 还研究了 GPT-3.5 等基础模型,对话式聊天机器人就是基于这些模型开发的。这里没有政治偏见的证据,尽管没有聊天机器人前端,很难以有意义的方式整理回复。
使用 Google越来越多的人开始使用人工智能机器人来获取搜索结果,但令人担心的是,我们的思维可能会受到所返回的答案的影响。
“随着法学硕士开始部分取代搜索引擎和维基百科等传统信息来源,法学硕士中蕴含的政治偏见对社会的影响是巨大的。”写道Rozado 在他发表的论文中。
这种偏见是如何进入系统的目前尚不清楚,不过没有迹象表明这是 LLM 开发人员故意植入的。这些模型是在大量在线文本上进行训练的,但混合中的左学习材料与右学习材料的不平衡可能会产生影响。
Rozado 表示,ChatGPT 在训练其他模型方面占据主导地位也可能是一个因素,因为该机器人之前曾被展示从政治观点来看,它处于中间偏左的位置。
基于 LLM 的机器人本质上是使用概率来确定哪个词应该在它们的响应中跟在另一个词后面,这意味着甚至在考虑到不同类型的偏见之前,他们所说的内容就已经存在了。
尽管谷歌、微软、苹果和 Meta 等科技公司热切地想要将人工智能聊天机器人推广给我们,但也许现在是时候让我们重新评估如何使用这项技术了,并优先考虑人工智能可以应用的领域。。
“至关重要的是要批判性地审查和解决法学硕士课程中可能存在的政治偏见,以确保在回答用户查询时能够平衡、公平和准确地呈现信息。”写道放牧了。
该研究已发表于PLOS ONE。