普及人工智能(AGI)一词的计算机科学家认为,它最早可能在 2029 年到来。
本文的其余部分位于付费墙后面。请登录或订阅以访问完整内容。
本·格策尔,他创立了 SingularityNET,旨在创造一个“去中心化、民主、包容和有益的通用人工智能”,在 2024 年有益的 AGI 峰会上发表演讲。在演讲中,他告诉听众,我们可以达到人工智能能够自我改进的地步。
尽管这一点似乎还很遥远,但他列出了一些他认为这可能会如此迅速发生的原因。戈策尔认为,这是因为我们正处于指数增长时期,而不是线性增长时期,这可能更难以集中注意力并理解变化的速度。
Goertzel 表示:“在未来一两年内,到 2029 年、2030 年,一台个人计算机的计算能力似乎将大致相当于人脑的计算能力。”他在讲话中说。 “然后再加上 10/15 年,一台计算机的计算能力将大致相当于整个人类社会的计算能力。”
Goertzel 引用了大型语言模型 (LLM),例如唤醒世界认识人工智能的潜力,但并不相信法学硕士本身是通向通用人工智能的道路,因为它们没有表现出对世界的真正理解,更像是一个。
然而,他认为法学硕士可以成为 AGI 的一个组成部分,推动我们走向,也许是在他公司自己的 OpenCog Hyperon 中。
“我们可以合理地教 Hyperon 系统做的一件事就是设计和编写软件代码,”Goertzel 在一篇未经审查的预印本论文中写道,该论文发布于arXiv。 “法学硕士在简单的环境中已经可以通过了;Hyperon 旨在通过更深层次的创造力和更强大的多阶段推理来增强这种能力。一旦我们拥有一个可以很好地设计和编写代码以改进自身并编写后续版本的系统,我们就进入了一个可能导致全面智能爆炸和技术奇点的领域。”
戈策尔对此既担忧又兴奋。在我们允许之前,需要采取适当的保障措施,我们还没有掌握的东西。如果奇点像戈策尔和其他计算机科学家所认为的那样接近(这仍然是一个巨大的“如果”),我们就面临着巨大的压力,需要尽快把事情做好。
戈策尔在演讲中补充道:“我个人的观点是,一旦达到人类水平的通用人工智能,几年之内你就可以达到完全超人的通用人工智能,除非通用人工智能因自身的保守主义而威胁到其自身的发展。”
“我认为一旦 AGI 能够反省自己的思想,那么它就可以在人类或超人的水平上进行工程和科学。它应该能够制造出更聪明的 AGI,然后是更聪明的 AGI,然后[将会]出现智能爆炸。这可能会导致指数级的增长,甚至超出[计算机科学家 Ray Kurzweil] 的想象。”
[H/T:生活科学]









