骗子已经在使用欺骗受害者的家人、朋友和商业伙伴。如果他们也可以使用他们的个性的深度伪造呢?
来自斯坦福大学和谷歌 DeepMind 的一组研究人员训练了人工智能模型,在短短两个小时的对话后就能复制一个人的个性。
该研究招募了 1000 多名参与者,他们完成了两个小时的采访,涵盖广泛的主题:从个人生活到对社会问题的看法、性格和逻辑测试、社会科学实验和经济游戏。然后,他们的回答被记录下来,并用于为每个参与者训练生成人工智能模型。科学家将它们命名为“模拟代理”。
两周后,受访者被要求重复相同的测试。然后将测试结果与模拟代理给出的相同问题的答案进行比较。 AI 模型可以以 85% 的准确度复制参与者的反应。
该论文指出:“生成代理在一般社会调查中复制参与者的回答的准确度与参与者两周后复制自己答案的准确率相同,并且在实验复制中预测人格特征和结果方面的表现相当。”
该论文已发表于arXiv并且尚未经过同行评审。尽管这项研究没有深入研究深度伪造,但研究人工智能模型的科学家们看到了生成代理的许多潜在用途。
模拟代理可以帮助社会科学家和其他研究人员进行研究,否则这些研究对于真实的人类受试者来说是昂贵的、不切实际的或不道德的。根据麻省理工科技评论。
它们还可能有助于制造更强大的人工智能代理。虽然确切的定义仍在争论中,但人工智能代理最常见的定义是旨在自主完成任务和实现目标的软件工具。他们依赖自然语言处理、机器学习和计算机视觉等人工智能技术。
领导这项研究的斯坦福大学博士生朴俊成 (Joon Sung Park) 表示:“我认为,如果你能有一群小小的‘你’跑来跑去,真正做出你本来会做出的决定,这就是未来。”
文章主题
||||||