与一个人进行了两个小时的交谈研究人员发现,(人工智能)模型可以准确复制某人的性格。
11 月 15 日发表在预印本数据库的一项新研究中arXiv谷歌和斯坦福大学的研究人员根据对每个参与者进行两小时的采访,创建了 1,052 个人的“模拟代理”——本质上是人工智能复制品。这些采访用于训练旨在模仿人类行为的生成人工智能模型。
为了评估人工智能复制品的准确性,每个参与者都完成了两轮性格测试、社会调查和逻辑游戏,并被要求在两周后重复这个过程。当人工智能复制品接受相同的测试时,它们与人类对应物的反应相匹配,准确率达到 85%。
该论文提出,模拟人类行为的人工智能模型可以在各种研究场景中发挥作用,例如评估公共卫生政策的有效性、了解对产品发布的反应,甚至对对重大社会事件的反应进行建模,否则成本可能太高,与人类参与者一起研究具有挑战性或道德上复杂。
有关的:
研究人员在论文中写道:“对人类态度和行为的通用模拟——每个模拟人都可以参与一系列社会、政治或信息背景——可以让研究人员建立一个实验室来测试一系列广泛的干预措施和理论。”纸。他们补充说,模拟还可以帮助试点新的公共干预措施,发展有关因果和情境相互作用的理论,并增加我们对机构和网络如何影响人们的理解。
为了创建模拟代理,研究人员进行了深入访谈,涵盖参与者的生活故事、价值观和对社会问题的看法。研究人员解释说,这使得人工智能能够捕捉典型调查或人口统计数据可能遗漏的细微差别。最重要的是,这些访谈的结构使研究人员可以自由地强调他们认为对他们个人最重要的事情。
科学家们利用这些采访生成了个性化的人工智能模型,可以预测个人对调查问题、社会实验和行为游戏的反应。这包括对综合社会调查,一个成熟的衡量社会态度和行为的工具;大五人格量表;和经济游戏,比如和信任游戏。
尽管人工智能代理在许多方面与人类对应物非常相似,但它们的准确性因任务而异。他们在复制对性格调查的反应和确定社会态度方面表现特别好,但在预测涉及经济决策的互动游戏中的行为方面不太准确。研究人员解释说,人工智能通常难以处理涉及社会动态和情境细微差别的任务。
他们还承认该技术有可能被滥用。人工智能和““ 技术已经被、在网上冒充、辱骂和操纵他人。研究人员表示,模拟代理也可能被滥用。
然而,他们表示,这项技术可以让我们以以前不切实际的方式研究人类行为的各个方面,通过提供高度受控的测试环境,而不会遇到与人类合作的道德、后勤或人际挑战。
在一份声明中麻省理工科技评论,主要研究作者朴俊成斯坦福大学计算机科学博士生说:“如果你能有一群小小的‘你’跑来跑去,并真正做出你会做出的决定——我认为,这最终就是未来。”