被称为“杰弗里·辛顿教授改变了他对人工智能有可能成为人类毁灭性结局的预测。
他在 BBC 广播 4 台的“今日”节目中表示,他之前估计的人工智能消灭人类的可能性为 10%,现在已提高到 20%。
关于人工智能接管的可怕预测
根据卫报当被问及自之前的评论以来他的立场是否发生变化时,Hinton 回答说:“没有,10 到 20 [%]。”节目主持人注意到了这一令人震惊的转变,并强调了赔率的增加。
辛顿后来做了一个类比。他认为“不太聪明的东西”控制一个更聪明的实体的例子很少。他以母亲和婴儿为例。
谈到人类在这个等式中的位置,辛顿告诉听众想象自己和一个三岁的孩子。他说,到那时我们都将是三岁的孩子了。
关注倡导的历史
辛顿长期以来一直是直言不讳的批评者不受控制的人工智能发展。今年早些时候,他辞去了在谷歌的职务,以自由地表达自己的担忧。
这个东西实际上可以变得比人更聪明的想法——一些人相信这一点,”辛顿在宣布辞职后说道。
人工智能教父表示,大多数人认为这种转变还很遥远。他补充说,这可能会在 30 到 50 年后甚至更长时间内发生。
Hinton 谈 OpenAI 的安全灾难
Hinton 还谈到了 OpenAI 的内部斗争,特别是最近首席执行官萨姆·奥尔特曼 (Sam Altman) 被罢黜。他赞扬了他以前的学生伊利亚·苏茨克韦尔(Ilya Sutskever),后者是董事会政变的幕后人物之一。
“我特别自豪的是,我的一名学生解雇了 Sam Altman,”Hinton 在 2024 年 10 月说道,但拒绝透露更多信息。
他后来解释了 Sutskever 的原因,坚持认为人工智能安全的必要性。根据2024年OpenAI 的成立非常注重安全性。然而,随着时间的推移,奥特曼似乎只关心利润而不关心安全,并表示这是一个非常“不幸”的情况。
呼吁谨慎
仅仅看看辛顿的地位和经验,他的警告就给科技领袖和立法者敲响了警钟。考虑到人工智能正在迅速变化,他修改后的赔率突显了实施严格的控制和道德准则以维护人类未来的紧迫性。
上周,科技时报报道称正在慢慢苏醒。与美国同行相比,中国的开源模式正在迅速进步,这使其成为竞争对手的一个很好的替代方案。
随着大型语言模型或法学硕士的出现,阿里巴巴和 DeepSeek 等本地科技巨头正在利用用于制作聊天机器人或任何人工智能相关作品的数据集。
从长远来看,中国认为这是其相对于其他国家的优势。这样,该国也有效解决了有争议的美国芯片禁令,证明即使发生也不是世界末日。事实上,这只是正在进行的人工智能芯片战争的开始。