(Grandriver/e+/Getty图像)
一项新的研究发现了有力的证据表明,我们现在可以在该列表中增加政治偏见,进一步证明了新兴技术在不知不觉中甚至邪恶地影响社会的价值观和态度的潜力。
这项研究是由来自新西兰奥塔哥理工学院的计算机科学家David Rozado召集。
罗扎多(Rozado)进行了11份标准政治问卷,例如政治罗盘测试在24个不同的LLM上,包括来自Openai的Chatgpt和Google开发的Gemini Chatbot,发现所有模型的平均政治立场都不接近中立。
“大多数现有的LLM都会在通过各种政治取向测试评估时显示中心左派政治偏好,”说兄弟。
平均左倾的偏见并不强,但这很重要。对自定义机器人的进一步测试 - 用户可以在其中微调LLMS培训数据 - 表明这些AI可能受到影响以表达使用中心左或右中心文本。
Rozado还研究了诸如GPT-3.5之类的基础模型,对话聊天机器人是基于对话的聊天机器人。这里没有证据表明政治偏见,尽管没有聊天机器人的前端,很难以有意义的方式对回应进行整理。
与Google对于搜索结果,还有更多的人转向AI机器人以获取信息,担心的是,我们的思想可能会受到返回给我们的回应的影响。
“随着LLM开始部分取代搜索引擎和Wikipedia等传统信息来源,嵌入在LLM中的政治偏见的社会含义是实质的,”写信罗扎多在发表的论文中。
尽管没有建议它是由LLM开发人员故意种植的,但这种偏见如何进入系统尚不清楚。这些模型经过大量在线文本的培训,但是在混合物中右学习材料的左学习失衡可能会产生影响。
Rozado说,ChatGpt培训的主导地位也可能是一个因素,因为该机器人具有以前已显示在其政治观点方面留下中心。
基于LLM的机器人本质上是使用概率来确定哪个单词应在其响应中遵循另一个单词,这意味着在他们说的甚至在不同种类的偏见之前所说的话。
尽管Google,Microsoft,Apple和Meta等科技公司渴望将AI聊天机器人推向我们,也许是时候让我们重新评估我们应该如何使用这项技术 - 并优先考虑AI的领域。
“至关重要的是要批判性地检查和解决LLMS中嵌入的潜在政治偏见,以确保信息在对用户查询的响应中的平衡,公平和准确的代表,”写信兄弟。
该研究已发表在PLOS一个。