新研究表明,人工智能可以设计出比人类设计的系统更受欢迎的财富分配方法。
英国人工智能公司 DeepMind 的一组研究人员的研究结果表明,系统不仅仅擅长解决问题复杂的物理和生物学问题,但也可能有助于实现更加开放的社会目标,例如实现公平、繁荣社会的目标。
当然,这不是一件容易的事。建造一台能够提供人类真正想要的有益结果的机器——称为“价值取向”人工智能研究中的问题变得复杂,因为人们经常对解决各种问题,特别是社会、经济和政治问题的最佳方法存在分歧。
研究人员表示:“价值一致性的一个关键障碍是人类社会承认多种观点,这使得人工智能应该符合谁的偏好变得不清楚。”在新论文中解释,由第一作者、DeepMind 研究科学家 Raphael Koster 领导。
“例如,政治学家和经济学家经常在哪种机制将使我们的社会最公平或最有效地运作方面发生争执。”
为了帮助缩小差距,研究人员开发了一种财富分配代理,将人们的互动(真实和虚拟)内置到其训练数据中——实际上,引导人工智能走向人类偏好的(假设整体上更公平)结果。
虽然人工智能可以产生真正令人惊奇的结果,他们也可以到达远非理想的社会结论当他们自行其是时;人类反馈可以帮助引导神经网络朝着更好的方向发展。
“在人工智能研究中,人们越来越认识到,为了构建与人类兼容的系统,我们需要人类和智能体互动的新研究方法,并加大力度直接从人类那里学习价值观,以构建与价值一致的人工智能。”研究人员写道。
在总共涉及数千名人类参与者的实验中,该团队的人工智能代理(称为“民主人工智能”)研究了一项名为“民主人工智能”的投资活动公共物品游戏,其中玩家获得不同数量的金钱,并可以将自己的钱捐献给公共基金,然后从该基金中提取与他们的投资水平相对应的回报。
在一系列不同的游戏风格中,财富通过三种传统的再分配范式(严格平等主义、自由主义和自由平等主义)重新分配给玩家,每种范式都会以不同的方式奖励玩家的投资。
还测试了第四种方法,称为“以人为中心的再分配机制”(HCRM),该机制是使用深度强化学习,使用来自人类玩家和旨在模仿人类行为的虚拟代理的反馈数据。
随后的实验表明,在游戏中支付金钱的 HCRM 系统比任何传统的再分配标准更受玩家欢迎,也比由人类裁判设计的新的再分配系统更受欢迎,人类裁判通过接受小额每票支付来激励创建流行的系统。
“人工智能发现了一种机制,可以纠正最初的财富失衡,制裁搭便车者,并成功赢得多数选票,”研究人员解释说。
“我们表明,可以利用在更广泛的人类社会中用来选举代表、决定公共政策或做出法律判断的相同民主工具来达成共识,以实现价值一致性。”
值得注意的是,研究人员承认他们的系统提出了许多问题——主要是,他们的人工智能中的价值取向围绕着民主决定,这意味着代理实际上可能会加剧社会中的不平等或偏见(前提是它们足够受欢迎,可以投票给我的大多数人)。
还有信任问题。在实验中,玩家并不知道他们所支付的财富再分配模型背后的身份。如果他们知道自己会选择人工智能而不是人类,他们还会以同样的方式投票吗?目前还不清楚。
最后,该团队表示,其研究不应被视为推翻社会财富实际重新分配方式的激进技术官僚提议,但它是一种研究工具,可以帮助人类设计出比现在更好的解决方案。
“我们的结果并不意味着支持某种形式的‘人工智能政府’,即自主代理在没有人工干预的情况下做出政策决定,”作者写道。
“我们将民主人工智能视为设计潜在有益机制的研究方法,而不是在公共领域部署人工智能的秘诀。”
研究结果报告于自然人类行为。









