随着人工智能安全峰会于 11 月 1 日星期三在英国开幕,专家们对 OpenAI 或谷歌等人工智能领域主导公司的“策略”感到震惊,这些公司呼吁监管,或者提出要求人类灭绝的幽灵。他们的目标是:尽可能地影响正在努力监管人工智能行业的监管机构,并挫败他们的竞争对手——例如开源人工智能模型。
当巨人人工智能试图在监管机构耳边窃窃私语……今年11月1日至2日,人工智能(AI)安全峰会在英国举行。值此之际,该行业的主要公司,例如开放人工智能专家警告说,谷歌将运用不同的“策略”来试图影响辩论,并利用未来的法律为自己谋利。
提出人工智能造成人类灭绝的威胁、要求监管、把人工智能摆得显而易见……这些业界大佬和游说者的主要策略在峰会的这两天不会被忽视。布莱切利公园 (Bletchley Park) 是二战时期英国的解密中心,距伦敦约 50 分钟路程。
加剧大规模灭绝的威胁
从人工智能巨头的第一个战略开始,该战略将于去年三月实施。专家表示,这涉及到人们对人工智能可能造成的人类毁灭的担忧,这种风险不一定被否认,但会被故意夸大和加剧。在呼吁暂停六个月的公开信去年 3 月,超过 1,000 名商界领袖签署了关于人工智能发展的协议,其作者对“给社会和人类带来深远的风险» 由这些人工智能系统构成。 “减轻与人工智能相关的灭绝风险应成为全球优先事项»,他们写道。
此后,OpenAI、微软和DeepMind多次呼应这一消息。 10 月 26 日,OpenAI 在一篇文章中解释道博客文章他打算召集一个专家团队来应对风险“灾难性的» 一个新团队中的人工智能,称为“准备工作»。 « C与直觉相反,推动生成人工智能发展的领导人(编者注,该领域的领导人)是那些对风险发出警报并尽最大努力影响法律制定进程的人。他们既是在空无一人的剧场里高喊“着火了”的人,也是开着消防车赶来的人»,专门从事自然语言处理的公司 Eigen Technologies 的创始人 Lewis Liu 在以下专栏中进行了分析:金融时报。
斯坦福大学教授吴恩达 (Andrew Ng) 接受采访澳大利亚金融评论10月30日,更进一步。向萨姆·奥尔特曼教授机器学习、在百度领导人工智能的人认为,人工智能可能导致人类灭绝这一想法本身就是一种错误。说谎。大型科技公司将使用它来实现一个目标:导致严格的监管,结束人工智能市场的竞争,有利于 OpenAI-微软或谷歌等先行者。
对于吴恩达来说,我们从“人工智能可以让我们消失» 提出另一个想法。也就是说:让人工智能更安全的唯一方法是对人工智能行业提出严格要求——这将有效地压制创新——以及新的竞争对手,包括那些开发开源人工智能的公司。 “当然,也有一些大型科技公司不愿意与开源人工智能竞争,因此他们制造了人工智能将导致人类灭绝的恐惧»,他向我们的同事解释道。
人类的灭绝已经成为“游说者捍卫对开源社区非常有害的立法的武器»,他补充道。后者并不主张缺乏监管,而是主张“周到的监管» 首先要提高科技公司的透明度。
与被认为是深度学习之父之一的法国研究人员 Yann Le Cun 的故事相同,他在 Meta 领导人工智能研究——马克·扎克伯格的团队是唯一提出开源语言模型 (LLaMA)。对于被誉为计算机科学诺贝尔奖的 2018 年图灵奖获得者来说,«关于存在风险的争论还为时过早”。人工智能可能有意或默认地杀死人类的想法是“荒诞»,他解释道金融时报上个月。目前, ”我们不会设计出一个在学习能力方面能够与猫竞争的系统»。
对于 Yann Le Cun 来说,关注人类灭绝的假设未来风险有一个目标:表明主要科技公司是唯一能够安全开发人工智能的公司。这将导致实施他认为过于严厉的监管关于研究和开发所有公司都应该保护自己免受这种存在风险的影响,而不是专注于产品部署。结果:他强调,来自开源模型(Meta 是其中一部分)的竞争将受到阻碍。最终,只有硅谷和中国的少数公司将控制人工智能平台,他感叹道X账户。
只关注前沿模型
这个策略类似于只监管未来的人工智能系统,或者最先进的人工智能模型,“前沿模型”,这将比今天部署的危险得多。通过将我们的努力集中在尚不存在的、遥远的未来,我们不会监管当前的系统。
然而,据 10 月 30 日星期一举行的人工智能“反峰会”背后的一组专家称,11 月 1 日和 2 日举行的世界峰会并未讨论“明显的紧迫性» 人工智能。然而,由于目前公众可以使用的工具(例如 ChatGPT、Bard、Dall-E 等)的危险已被记录和批评,因此还有很多工作要做。发现的问题包括缺乏透明度、散布虚假消息和人工智能生成的深度赝品、作品的使用受版权保护或用于训练人工智能系统的其他权利,剥削报酬过低的劳动力训练这些工具,种族主义偏见或性别歧视者,或者权力集中在少数公司手中——这个清单远非详尽无遗。
正是这种策略将辩论限制在谷歌、微软、Anthropic 和 OpenAI 将采用的最复杂的未来系统上。这四家公司去年7月宣布成立一个名为“前沿模型论坛»。所提出的目标恰恰是促进“负责任、安全发展» 对于“前沿模型”。但对于这些最先进的人工智能模型来说,安全、负责任或道德的人工智能会是什么样子呢?目前还没有明确的答案,特别是因为这样的定义将来自该行业的主要参与者,他们将尽一切努力避免设置太重或太严格的规则障碍。
这一策略在一些国家可能会奏效。在美国,法令于 10 月 30 日星期一发布人工智能开发人员有一项新义务,在向公众开放人工智能之前,必须与美国政府分享其安全测试结果。但该通知仅适用于正在开发的人工智能。这对健康和安全(……)、经济或国家安全构成严重风险”。因此退出现有系统,然而,必须始终尊重“现行法律» 美国竞争主管机构负责人莉娜·汗 (Lina Khan) 回忆道,关于竞争和消费者保护X。他们真的这么做了吗?问题出现了。
“监管我们!” »
提高人类灭绝的威胁有一个必然的结果:监管的需求。这是 ChatGPT 背后的初创公司 OpenAI 的老板 Sam Altman 所采用的方法。三十岁的人从未停止过要求被监管,比如去年五月在美国参议院举行的听证会上。 «当一家处于有利地位的公司要求接受监管时,即使它看起来是为了给行业带来好处而屈服,但它实际上是在尝试一种被称为“监管捕获”的策略。为了什么 ?她比监管者更了解技术»,微软前任经理史蒂文·辛诺夫斯基(Steven Sinofsky)在他的 X 账户上解释道:“声称技术失控,字面上要求受到监管»,他补充道。
https://twitter.com/stevesi/status/1659271710070407169?s=20
«要非常警惕那些举手说“监管我,监管我”的人工智能技术领导者。政府可能会忍不住冲进去并相信他们的话人工智能芯片制造商 Graphcore 的首席执行官 Nigel Toon 在一份报告中指出博客文章从 10 月 23 日起。
美国佐治亚大学历史学教授史蒂芬·米姆 (Stephen Mihm) 在专栏中回忆道,因为如果监管应该迫使强者尊重游戏规则,那么历史表明这并不完全正确。华盛顿邮报。过去,占据行业主导地位的公司也公开主张监管,就像萨姆·奥尔特曼现在所做的那样。但当时,就像今天一样,他们的动机更多地与他们的利润和竞争优势联系在一起,而不是与普遍利益联系在一起,他在提到所谓的“监管捕获»。
这个概念是经济学家乔治·斯蒂格勒 (George Stigler) 于 1971 年在一篇题为“经济监管理论”的文章中理论化的。后者认为,大型现有公司通常利用法规来挫败竞争对手。监管几乎总是会服务于这些公司的利益,例如通过强制实施只有他们才能遵守的众多手续。
因此,监管捕获就等于让公司制定服务于自身利益的规则,而损害了整体利益 — — 这一理论在今天可以找到趋同点。在萨姆·奥尔特曼在美国参议院的听证会上,我们可以听到来自路易斯安那州的共和党参议员约翰·肯尼迪对 OpenAI 的老板提出了很多要求:“告诉我们要实施哪些规则”。白宫、美国参议院和欧盟委员会接待了该行业巨头的老板。辩论的其他各方是否按照要求参加了辩论?
据专家援引的说法,在目前在伦敦附近举行的人工智能安全峰会上,目前主导人工智能的公司代表人数过多卫报,10 月 31 日星期二。对一些人来说错失了机会,因为“峰会未能邀请更多受人工智能颠覆影响的专家和民众代表» 前欧洲议会议员兼欧盟委员会特别顾问 Marietje Schaake 强调,数字服务监管,被我们的同事引用。
她补充道:“英国政府听取了选择自我监管的企业的意见(……)” –以及建立自愿承诺。还会听到不和谐的声音吗?
另请阅读:人工智能监管:为何仍滞留在欧洲?