常见的问题是是一个无穷无尽的悖论。自动化程度越高,人类需要做的工作就越多。
Meta 的首席人工智能科学家 Yann LeCun 乐观地认为,包括超级智能在内的人工智能将继续处于人类的控制之下。在 Nvidia 的 GTC 会议上,他讨论了人工智能取代人类的潜力,但强调社会可能会拒绝这样的结果。
人工智能是一种强大的工具,而不是替代品
回应英伟达首席科学家 Bill Dally 的说法,即人类正在通过 AI“为人们提供动力工具”,严乐存表示人工智能最终可能比人类更有能力,但仍然由人负责。
这位 64 岁的计算机科学家认为,超级智能人工智能更像是一支训练有素的助手大军,而不是决策者。
“我的意思是,基本上我们与未来人工智能系统(包括超级智能)的关系是我们将成为他们的老板,”LeCun 说。 “我们将拥有一支超级聪明、美丽的员工为我们工作。
“我不了解你,但我喜欢与比我聪明的人一起工作,”他补充道。 “这是世界上最伟大的事情。”
超级智能:创新还是灭绝?
关于超级智能的争论,我们指的是比人脑更聪明的人工智能系统,这往往会引起对世界末日的恐惧。 OpenAI 首席执行官萨姆·奥尔特曼 (Sam Altman) 和 xAI 创始人埃隆·马斯克 (Elon Musk) 等人警告说,人工智能可能会导致灭绝级别的事件。
但 LeCun 一直否认这些担忧。在 2024 X(前 Twitter)帖子中,他将超级智能推翻人类的前景称为“科幻比喻”和“荒谬的情况,违背了我们对事物运作方式的所有了解”。
对于其他研究人员来说,。他们相信,一旦它超越了程序员的任务,人类就很难设定它的局限性。
目前还没有超级智能的蓝图
在一个商业内幕在报告中,LeCun 强调人类距离创造超级智能人工智能系统还差得很远。他解释说,超级智能的崛起不会是一个事件。
LeCun 补充说,超级智能系统的蓝图尚未建立,但有一个重要的基础人工智能架构可以帮助我们到达那里。
真正的风险:人工智能的滥用和不可靠
LeCun承认AI系统目前受到以下问题的困扰和不可靠性。尽管如此,他坚信答案是创造“更好的人工智能”。
LeCun 认为,解决这个问题的方法是改进人工智能。具有常识、推理能力以及估计自身响应可靠性的系统。









