由于担心人工智能的发展方向,一位经常被称为人工智能(AI)“教父”的人本周辞去了谷歌的工作。
Geoffrey Hinton 因其在深度学习和神经网络方面的工作而闻名,并因此获得了 2019 年价值 100 万美元的图灵奖。加拿大广播公司他很高兴能够获胜,因为“很长一段时间以来,神经网络在计算机科学中被认为是不稳定的。这是一种接受,它实际上并不不稳定。”
此后,随着 Chat-GPT 和 AI 图像生成器等 AI 程序的兴起,,该方法已成为主流。 Hinton 于 2013 年在这家科技巨头收购了他的公司后开始在谷歌工作,现在他认为这项技术可能对社会构成危险,并退出了公司,以便能够公开谈论它。纽约时报报告。
从短期来看,Hinton 担心人工智能生成的文本、图像和视频可能导致人们无法“知道什么是真实的”,以及对就业市场的潜在干扰。从长远来看,他对人工智能超越人类智能和人工智能学习的担忧更大。
“据我所知,目前他们并不比我们聪明,”他告诉记者。英国广播公司。 “但我认为他们很快就会成为现实。”
75 岁的 Hinton 告诉 BBC,人工智能目前在推理方面落后于人类,尽管它已经可以进行“简单”推理。然而,就常识而言,他认为它已经远远领先于人类。
“所有这些副本都可以单独学习,但可以立即分享他们的知识,”他告诉英国广播公司。 “所以就好像你有 10,000 个人,每当一个人学到一些东西时,每个人都会自动知道它。”
他告诉《纽约时报》,一个担忧是“坏人”可能会利用人工智能来达到自己的邪恶目的。与核武器等威胁需要基础设施和受监控的物质(如铀)不同,此类参与者的人工智能研究将更难以监控。
“这只是一种最坏的情况,一种噩梦,”他告诉英国广播公司。 “你可以想象,例如,像普京这样的坏人决定赋予机器人创造自己的子目标的能力。”
诸如“我需要获得更多权力”之类的子目标可能会导致我们尚未想象到的问题,更不用说考虑如何处理了。正如专注于人工智能的哲学家、牛津大学人类未来研究所负责人尼克·博斯特罗姆 (Nick Bostrom) 在 2014 年所解释的那样,即使是一条简单的指令,也可以最大限度地提高人工智能的数量。世界上的任何事情可能会导致意想不到的子目标,这可能会给人工智能的创造者带来可怕的后果。
“人工智能很快就会意识到,如果没有人类,情况会好得多,因为人类可能会决定将其关闭,”他解释道。赫芬顿邮报2014年。“因为如果人类这样做,回形针就会更少。而且,人体含有大量可以制成回形针的原子。人工智能试图迈向的未来将是这样一个未来:有很多回形针,但没有人。”
Hinton 告诉 BBC,他的年龄是他决定退休的一个因素,他认为人工智能的潜在优势是巨大的,但这项技术需要监管,特别是考虑到该领域目前的进展速度。尽管他离开是为了谈论人工智能的潜在陷阱,但他相信谷歌迄今为止在该领域的行为是负责任的。随着全球竞相开发这项技术,如果不加监管,很可能并不是每个开发该技术的人都会受到监管,而人类将不得不应对其后果。