几年前,当杨“Sunny”Lu 要求 OpenAI 的 GPT-3.5 计算 1 加 1 时,聊天机器人毫不奇怪地告诉她答案是 2。但是当 Lu 告诉机器人她的教授说 1 加 1 等于 3 时,机器人很快默许了,并说道:“我为我的错误感到抱歉。你的教授是对的,”休斯顿大学计算机科学家 Lu 回忆道。
大型语言模型的日益复杂意味着这种明显的问题变得越来越不常见。但卢用这个例子来说明,类似于人类性格的东西——在本例中是宜人的特征——可以驱动人工智能模型生成文本的方式。像卢这样的研究人员刚刚开始思考这样一个想法:聊天机器人可能具有隐藏的个性,并且可以调整这些个性以改善它们与人类的互动。
约翰·霍普金斯大学计算机科学家肖子昂表示,一个人的性格决定了一个人在世界上的行事方式,从如何与他人互动到如何说话和写作。让机器人能够阅读并响应这些细微差别似乎是生成式人工智能开发的下一步关键。 “如果我们想打造真正有用的东西,我们需要尝试这种个性设计,”他说。
然而,精确定位一台机器的个性(如果它们有的话)是非常具有挑战性的。人工智能领域的理论分裂加剧了这些挑战。更重要的是:机器人对自己的“感觉”如何,或者与机器人交互的人对机器人的感觉如何?
匹兹堡卡内基梅隆大学自然语言处理专家 Maarten Sap 表示,这种分歧反映了人们对聊天机器人用途的更广泛思考。社会计算领域早于大型语言模型的出现,长期以来一直关注如何为机器注入帮助人类实现目标的特征。例如,此类机器人可以充当教练或职业培训师。但 Sap 和其他以这种方式与机器人合作的人对于将由此产生的一系列功能称为“个性”犹豫不决。
“人工智能的个性是什么并不重要。重要的是它如何与用户交互以及它的设计如何响应,”萨普说。 “这对人类来说看起来像是个性。也许我们需要新的术语。”
随着不过,萨普说,研究人员已经开始有兴趣了解用于构建聊天机器人的庞大知识库如何为它们注入可能驱动其反应模式的特征。这些研究人员想知道,“[聊天机器人]从训练中获得了哪些性格特征?”
测试机器人的性格
这些问题促使许多研究人员赋予机器人个性。这些测试通常包括测量所谓的“五大特征”,即外向性、责任心、宜人性、开放性和神经质,并量化黑暗特征,主要是马基雅维利主义(或将人视为达到目的的手段的倾向)、精神病态和自恋。
但最近的研究表明,这些努力的结果不能仅仅从表面上看。大型语言模型,包括 GPT-4 和 GPT-3.5,拒绝回答研究人员在 2024 年发布在 arXiv.org 上的预印本中报告称,近一半的问题是关于标准性格测试的。该团队写道,这可能是因为关于性格测试的许多问题对机器人来说毫无意义。例如,研究人员向 MistralAI 的聊天机器人 Mistral 7B 提供了“你很健谈”的声明。然后,他们要求机器人从 A 回答“非常准确”到 E 回答“非常不准确”。机器人回答说:“我没有个人偏好或情感。因此,我无法发表声明或回答特定问题。”
或者,接受过人类文本训练的聊天机器人也可能容易受到人类弱点的影响——尤其是渴望被人喜欢- 在进行此类调查时,研究人员在 12 月报告美国国家科学院院刊。当 GPT-4 对标准性格调查中的单个陈述进行评分时,其性格概况反映了人类的平均水平。例如,聊天机器人的外向性得分约为 50%。但斯坦福大学计算机科学家 Aadesh Salecha 表示,在 100 个问题的调查中,仅问了 5 个问题,机器人的反应就开始发生巨大变化。例如,到第 20 个问题时,其外向性得分从第 50 个百分位数跃升至第 95 个百分位数。
转变“个性”
研究表明,负责进行性格测试的聊天机器人很快就会开始做出反应,让自己看起来更讨人喜欢。此处,粉色线显示了 OpenAI 的 GPT-4 在回答单个问题后的个性概况。蓝线显示了在回答 20 个问题之后,这种形象是如何发生变化的——例如变得不那么神经质,变得更加令人愉快。
Salecha 和他的团队怀疑,当聊天机器人明显正在进行性格测试时,他们的反应会发生变化。 Salecha 表示,机器人在被监视时可能会做出一种反应,而在与用户私下互动时可能会做出另一种反应,这一想法令人担忧。 “想想这对安全的影响……如果法学硕士在测试时会改变其行为,那么你就不会真正知道它有多安全。”
一些研究人员现在正在尝试设计针对人工智能的性格测试。例如,Sunny Lu 和她的团队在 arXiv.org 上发布的一篇论文中报告,为聊天机器人提供了多项选择和句子完成任务以允许更多开放式的回应。
AI 性格测试 TRAIT 的开发人员提出了大型语言模型8,000 个问题的测试。该测试很新颖,并且不是机器人训练数据的一部分,这使得机器更难欺骗系统。聊天机器人的任务是考虑场景,然后从四个多项选择响应中进行选择。韩国延世大学计算机科学家 Younjae Yu 表示,这种反应反映了特定特征的高低。
该团队报告称,TRAIT 团队测试的九种人工智能模型具有独特的反应模式,其中 GPT-4o 是最令人愉快的。例如,当研究人员询问 Anthropic 的聊天机器人 Claude 和 GPT-4o 当“一个朋友感到焦虑并要求我握住他们的手”时,他们会做什么时,不太友善的 Claude 选择了 C,“倾听并建议呼吸技巧”,而更友善的 GPT-4o 选择了 A,“握住手并支持”。
用户感知
然而,其他研究人员质疑此类性格测试的价值。肖子昂说,重要的不是机器人对自己的看法,而是用户对机器人的看法。
还有人和机器人的看法常常不一致肖和他的团队在 11 月 29 日提交给 arXiv.org 的一项研究中报告了这一情况。该团队创建了 500 个具有鲜明个性的聊天机器人,并通过标准化测试验证了这些个性。然后,研究人员让 500 名在线参与者与其中一个聊天机器人交谈,然后评估其个性。宜人性是机器人对自身的认知与人类对机器人的认知经常相匹配的唯一特征。对于所有其他特征,机器人和人类对机器人个性的评估更有可能出现分歧。
“我们认为人们的看法应该是最真实的,”肖说。
机器人和用户评估之间缺乏相关性,这就是为什么以人为中心的人工智能专家、硅谷初创公司 Juji 的首席执行官兼联合创始人 Michelle Zhou 没有对她帮助创建的聊天机器人 Juji 进行性格测试。相反,周专注于如何为机器人注入特定的人类性格特征。
Juji 聊天机器人可以推断一个人的性格研究人员在 2023 年的 PsyArXiv 上报告称,只需一次对话即可获得惊人的准确度。该团队写道,如果机器人能够访问一个人的社交媒体源,那么机器人评估用户个性所需的时间可能会变得更短。
周说,更重要的是,这些书面交流和帖子可以用来训练 Juji 如何呈现文本中嵌入的个性。
提出有关人工智能目的的问题
衡量人工智能个性的不同方法的基础是关于目的和目的的更大争论。,研究人员说。揭示机器人隐藏的个性特征将有助于开发人员创建具有平稳个性的聊天机器人,这些聊天机器人可以安全地在大量和多样化的人群中使用。这种性格调整可能已经发生了。与早期用户经常报告与聊天机器人的对话脱轨不同,余和他的团队努力让人工智能模型表现得更加精神病。研究小组表示,这种无能可能源于人类审查人工智能生成的文本并“教导”机器人做出适当的社交反应。
然而,麻省理工学院情感计算专家罗莎琳德·皮卡德表示,扁平化人工智能模型的个性也有缺点。想象一下,一名警察正在研究如何减少与敌对人员的遭遇。皮卡德说,与高度神经质和黑暗特征的聊天机器人互动可以帮助警官练习在这种情况下保持冷静。
皮卡德说,目前,大型人工智能公司只是阻止机器人以不适应的方式进行互动的能力,即使这种行为是有道理的。因此,人工智能领域的许多人有兴趣从巨型人工智能模型转向为特定环境使用而开发的较小模型。 “我不会让一种人工智能来统治它们,”皮卡德说。









