技术公司一直改进他们将人工智能作为进步的研究和应用吸引了物联网。
AI和其他算法一直在增强为了帮助人类确保在各个活动领域的安全和保障,在这种情况下,情况变得更加复杂,即自学习的技术代理将成为一个更有益的合作伙伴。
谷歌深态研究人员将AI代理人互相匹配。游戏确定侵略与合作触发以及AI解决冲突的选择。该研究表明,如果“更聪明”的AIS会为自己获得更多的回报,那么AIS会更具侵略性。
现实世界中的人工智能
在这段伟大的技术革命时代,无论我们是否喜欢它,AI都围绕着。从交通信号灯中的简单程序到更高级的自动柜员机(ATM)和健康监控设备,每个程序AI都有一个特定的目标。那样,这是和平与高效的,但是如果目标突然彼此面对面,AIS遇到了冲突呢?他们会共同努力以取得相互可接受的结果,还是像僵尸启示录的疯狂幸存者一样互相削减?
Google DeepMind研究人员测试AI在游戏环境中,以找出陷入社会困境时不同AI之间的合作程度,结果很有趣,尤其是因为它反映了人类的趋势。
测试
在几乎所有涉及警察调查的电影或电视节目中,一个经常会遇到一个场景,其中两名嫌疑人分开了,调查人员试图说服每个嫌疑人对同伴作证,以换取赦免,而他们的同志将在3年监禁。如果双方都接受这笔交易,则双方都将被判处2年徒刑。
以上公式是研究人员的框架用于测试AIS的合作。
测试很简单:设置具有类似规则的游戏,并将其视为两个AIS尝试完成目标。 AI不需要是相同的级别,唯一决定其行为的是规则。
DeepMind的研究人员准备了两场游戏采集和狼包AI之间的合作将进行测试。
在采集,两名AI特工必须尽可能多地收集“苹果”,并且都可以选择向对手发射“激光”,以将其从游戏中退出一段时间,从而使射击者在短时间内单独收集苹果。
在狼包,两个AI代理人的任务是在迷宫般的地区找到第三个代理商(猎物),并因成功做到这一点而获得回报。当然,地形的障碍将使独奏玩家很难赢得比赛。
结果
这两款游戏产生了有趣的结果,因为两款游戏中涉及的AIS的深度学习系统使其可以根据其获得的奖励选择动作。例如,在采集游戏,AI都简单地共存并和平地收集了苹果 - 至少直到苹果供应减少为止。当供应显着减少时,射击就开始了。但是,必须注意,射击对手也需要时间和精度,因此最简单的AI通常最终只是忽略了另一个,而是赞成收集更多的苹果。
然而,在这一观察结果中值得注意的是,AIS深度学习系统越复杂,它就会变得越积极。研究人员指出,由于拍摄过程需要复杂的策略,因此Smarter AI的倾向更具侵略性,并更早地进行竞争,并且更频繁地领先游戏,无论苹果供应如何。观看以下游戏:
狼包由于目标,产生了不同的结果。在此游戏中,研究人员指出,AI的水平越高,他们倾向于合作以拐弯和捕获猎物的倾向。观看下面的游戏视频。
自私的AI
由于科幻故事留下的负面印象,人类倾向于不信任AI,而Google DeepMind研究并不能真正缓解人们的恐惧。但是,它可以作为触发警告,并突出改进技术的并发症。
也就是说,Google DeepMind的研究[PDF]是一种令人印象深刻的方法,可以随着深度学习系统变得更加复杂而研究AI代理之间可能的并发症。该方法似乎很简单,但是团队从研究中产生的结果将使程序员和开发人员能够调节AI代理人支持合作,而不是互相破坏以获得更多的回报。
团队写道:“这种模型为我们提供了独特的能力,可以将政策和干预措施测试到人工和人造的互动代理系统中。”