OpenAI 的联合创始人之一创立了 Safe Superintelligence Inc,这是一家致力于先进和安全人工智能的初创公司。该公司希望通过组建一个精心挑选的小型团队来开发新的人工智能。
OpenAI 联合创始人之一 Ilya Sutskever 刚刚宣布成立一家致力于人工智能的新公司。受洗安全超级智能Inc,这家初创公司将专注于设计“安全超级智能”。根据 Ilya Sutskever 分享的新闻稿,这是“我们这个时代最重要的技术问题”。
这个概念指的是先进的人工智能,在几乎所有领域都远远超过人类的智力能力,这仍然是符合人类价值观。该公司表示,专门用于该项目的实验室已经成立。此外,该小组还聚集了“一个由世界上最好的工程师和研究人员组成的小而有能力的团队”。在安全超级智能的背后,我们还找到了苹果前人工智能负责人之一丹尼尔·格罗斯(Daniel Gross),以及 OpenAI 团队前科学主管丹尼尔·利维(Daniel Levy)。
安全第一
顾名思义,该公司将专注于人工智能安全。作为这种方法的一部分,安全超级智能将依赖于一种商业模式来保证“安全、保障和进步都不受短期商业压力的影响”。具体来说,“间接管理成本或产品周期”不会分散科学家的注意力。
“这家公司的特别之处在于,它的第一个产品将是安全的超级智能,在此之前它不会做任何其他事情。它将完全免受必须推出大型、复杂产品以及必须陷入竞争激烈的外部压力的影响。””,伊利亚·苏茨克韦尔 (Ilya Sutskever) 在接受采访时说道布隆伯格。
这样,研究人员将在开发人工智能时无需担心财务或经济方面的考虑,并且“和平发展””,苏茨克韦尔补充道。研究人员似乎隐含地制定了对 OpenAI 所采取方向的批判性描述。在 Sam Altman 的领导下,这家初创公司发现自己陷入了一场争夺最高效人工智能的疯狂竞赛,并正在增加新的语言模型。推出ChatGPT 4和ChatGPT 4o后,OpenAI正在准备现在另一个更强大的模型的到来,以以下名义提及GPT-Next 或 GPT-5。
尽管强调安全性,安全超级智能仍致力于保持在人工智能领域研究的前沿:
“我们将安全和技能视为需要通过革命性工程和科学突破来解决的技术问题。我们计划尽快提升我们的能力,同时确保我们的安全始终保持领先地位。”。
OpenAI 的分歧
根据记录,Ilya Sutskever 于 2015 年与 Sam Altman 一起参与了 OpenAI 的创立。这位俄罗斯研究员曾在 Google Brain 研究团队工作,最终上个月离开 OpenAI。几个月前,他就已经放弃了该集团的董事会。萨姆·奥尔特曼 (Sam Altman) 被罢免并恢复首席执行官职务。伊利亚·苏茨克韦尔 (Ilya Sutskever) 是投票支持奥特曼离开的人之一。
这位俄罗斯科学家认为,OpenAI 在首席执行官的领导下,在通用人工智能的竞赛中忽视了采取必要的预防措施。在 OpenAI,Ilya Sutskever 还创建了一个完全致力于预测人工智能带来的风险的团队。这个名为 Superalignment 的团队在这位计算机科学家离开后不久就解散了。成员被重新分配到其他职位。
来源 : X