巨头谷歌的前老板埃里克·施密特(Eric Schmidt)担心人工智能的疯狂发展。考虑到人工智能与核武器一样危险,他建议美国或中国等世界大国商定一项威慑条约。
今年 2022 年 7 月 22 日,埃里克·施密特2001年至2011年任谷歌总监,参加阿斯彭(美国)安全论坛。在一次会议上,前执行总裁比较了人工智能(AI)到核弹。
“我们还没有准备好进行我们需要的谈判。” –@埃里克施密特 #AspenSecurity pic.twitter.com/As749t6ZyU
— 阿斯彭安全论坛 (@AspenSecurity)2022 年 7 月 22 日
基于这一比较,施密特建议所有大国,例如美国和中国,努力创造信任关系关于人工智能。这位商人认为,这种关系一定更贴近政策。核威慑包括法国在内的许多国家都已实施。
埃里克·施密特呼吁在人工智能问题上采取威慑政策
这一军事战略诞生于第二次世界大战的废墟中,其特点是在遭受外国攻击时持有核武器。的前景核反应从而阻止敌人使用自己的导弹。根据这一理论,攻击者不会使用核武器,从而维护了国家之间的和平。
冷战期间,这一政策导致禁止秘密核试验。具体来说,任何组织核试验的国家都必须警告外国势力。此规则可防止尝试被解释为攻击并触发响应。
“在 50 年代和 60 年代,我们终于创造了一个存在规则的世界“不足为奇”关于核试验。 [……]我们必须开始建立一个系统,因为你武装自己或做好准备,你就会触发与另一方相同的事情。我们没有人从事这方面的工作,但人工智能却如此强大””,埃里克·施密特解释道。
这位亿万富翁强调说,这项政策必须适用于人工智能,因为人工智能与核武器一样危险。谷歌前任领导人对此表示遗憾类似的系统核威慑并没有到位来管理人工智能的发展。如果没有障碍,这项技术的兴起可能会产生有害的后果。
这位慈善家在演讲中设想了一个美国和中国必须就人工智能发展达成一致的未来。施密特呼吁这两个大力投资人工智能技术的世界大国建立一项类似于核能的威慑条约。
应对人工智能挑战的基金
镜像施密特,桑达尔·皮查伊 (Sundar Pichai),谷歌巨头现任首席执行官,认为人工智能绝对必须受到监管。在近年来发表的几篇采访中,他将人工智能比作火或电。
«人工智能的进步仍处于早期阶段,但我认为这是人类有史以来最深刻的技术,我们需要确保利用它为公司带来最大的利润。[…]火也会杀人。我们已经学会为了人类的利益而控制它,但我们也学会了控制它的坏面»,Sundar Pichai 在 2018 年接受采访时特别解释道重新编码。
为了监督人工智能的发展,埃里克·施密特创建了AI2050基金去年二月。该基金预留给学术界,将注入 1.25 亿美元用于资助«研究“难题”在人工智能方面。该倡议将特别关注算法编程偏见、地缘政治冲突和技术滥用。