谷歌的“人工智能教父”辞职,以便他可以警告该技术的危险
(VPanteon/iStock/Getty Images Plus)
经常被称为“计算机教父”的计算机科学家据美国媒体周一报道,他辞去了谷歌的工作,公开谈论这项技术的危险。
Geoffrey Hinton 为人工智能系统创建了基础技术,告诉 纽约时报该领域取得的进步“对社会和人类构成了巨大的风险”。
“看看五年前的情况和现在的情况,”他说道。在片中,该书于周一发布。
“抓住差异并向前传播。这太可怕了。”
Hinton 表示,科技巨头之间的竞争正在推动企业以危险的速度发布新的人工智能技术,从而危及就业和就业。传播错误信息。
“很难看出如何阻止坏人利用它来做坏事,”他告诉这时代。
2022 年,谷歌和 OpenAI(热门人工智能聊天机器人 ChatGPT 背后的初创公司)开始使用比以前更多的数据构建系统。
辛顿告诉时代他相信这些系统在某些方面正在超越人类智能,因为它们分析的数据量很大。
“也许这些系统中发生的事情实际上比大脑中发生的事情要好得多,”他告诉纸。
虽然人工智能已被用来支持人类工人,但 ChatGPT 等聊天机器人的快速扩张可能会使工作面临风险。
他说,人工智能“带走了苦差事”,但“可能带走的还不止这些”告诉这时代。
这位科学家还警告人工智能创造的错误信息可能会传播,讲述这时代普通人将“不再能够知道什么是真实的”。
Hinton 上个月通知谷歌他辞职了时代报道称。
谷歌人工智能首席科学家 Jeff Dean 在给美国媒体的一份声明中向 Hinton 表示感谢。
声明中表示:“作为首批发布人工智能原则的公司之一,我们仍然致力于以负责任的方式对待人工智能。”额外。
“我们不断学习了解新出现的风险,同时大胆创新。”
三月,科技亿万富翁以及一系列专家以便有时间确保他们的安全。
一封公开信该协议由包括马斯克和苹果联合创始人史蒂夫·沃兹尼亚克在内的 1000 多人签署,是由 GPT-4 的发布推动的,GPT-4 是 ChatGPT 使用的技术的更强大版本。
辛顿当时没有签署那封信,但是告诉 纽约时报科学家们不应该“进一步扩大规模,直到他们弄清楚他们是否可以控制它。”
©法新社