如果这种情况真的发生,Ben Goertzel 相信技术奇点很快就会到来。
推广“通用人工智能(AGI)”这一术语的计算机科学家认为,AGI 最早可能在 2029 年实现。
本·格策尔,他创立了 SingularityNET,旨在创造一种“去中心化、民主、包容、有益的通用人工智能”,在2024年有益的AGI峰会上发表演讲。在演讲中,他告诉观众,我们可以达到人工智能能够自我完善的地步。
尽管这一时刻似乎遥不可及,但他列举了一系列理由来说明为什么他认为这一时刻会如此迅速地到来。据 Goertzel 称,这是因为我们正处于一个指数增长而非线性增长的时期,这可能更难理解和把握变化的速度。
Goertzel 表示:“在未来的十年或二十年里,到 2029 年或 2030 年,一台个人计算机的计算能力将大致与人脑相当。”他在讲话中说“然后再加 10/15 年,一台计算机的计算能力将大致相当于整个人类社会的计算能力。”
Goertzel 引用了以下大型语言模型 (LLM):唤醒世界对人工智能潜力的认识,但不相信法学硕士本身是通往 AGI 的道路,因为它们没有表现出对世界的真正理解,更像是一个。
然而,他认为法学硕士可以成为 AGI 的一个组成部分,推动我们走向,也许是在他公司自己的 OpenCog Hyperon 中。
Goertzel 在一篇未经审查的预印本论文中写道:“我们可以教会 Hyperon 系统做的一件事就是设计和编写软件代码。”论文集。“在简单的环境中,法学硕士已经能够胜任这项工作;Hyperon 旨在通过更深层次的创造力和更强大的多阶段推理来增强这种能力。一旦我们拥有一个能够设计和编写代码的系统,该系统能够自我改进并编写后续版本,我们就进入了一个可能导致全面智能爆炸和技术奇点的领域。”
Goertzel 对此既感到担忧,又感到兴奋。我们需要采取适当的保护措施,才能让,这是我们尚未掌握的。如果奇点真的像 Goertzel 和其他计算机科学家认为的那样接近(这仍然是一个极大的“如果”),我们将面临巨大的压力,需要尽快解决问题。
“我个人的观点是,一旦你达到了人类水平的 AGI,几年之内你就可以成为超人的 AGI,除非 AGI 因自身的保守主义而威胁到自身的发展,”Goertzel 在演讲中补充道。
“我认为,一旦 AGI 能够自省自己的思想,它就能在人类或超人的水平上进行工程和科学研究。它应该能够制造出更聪明的 AGI,然后是更聪明的 AGI,然后就会出现智能爆炸。这可能会导致指数级增长,甚至超出计算机科学家 Ray Kurzweil 的想象。”
[H T:生活科学]