在宣布的投资背后法国的10090亿欧盟为2000亿,“峰会以行动从2月11日星期二结束的巴黎,他面对与AI系统有关的风险,提出了安全臣民的提升?世界各地是否在这个非常敏感的问题上达成共识?
对于某些专家而言,巴黎AI峰会不允许任何进展:相反,后者注意到了主题的下降。尽管伊曼纽尔·马克龙(Emmanuel Macron)的陈述提倡”信心»开发AI所必需的。尽管这是有希望的开端。
“我没有来这里谈论IA安全»»
2月6日,活动的上游,IA安全报告“出版了,一种”关于AI安全的科学文献摘要”,相当于ICAC报告。平行事件和会议是由非政府组织暂停IA组织的。
但这是不指望美国副总统VD Vance的进攻性讲话,后者席卷了所有向这个问题提出的希望。 “”我没有来这里谈论IA安全”在2月11日星期二活动结束时,技术授权说。他说,现在是冒险并审慎的审慎的时候了,解决了欧洲人的意愿”拧紧螺丝“美国AI和数字巨头及其法规”过多的»et«昂贵的»。
但是,两年前,AI安全是Bletchley Summit的主要主题,该主题于2023年在英国组织。但是后者被降级为第二个 - 甚至是最后一个计划。在法国的最终宣言中几乎没有提到。
一些专家的倒退
出于多种原因解释的差异。首先是因为新美国政府捍卫了放松管制方法。唐纳德·特朗普删除了几个稀有弹药由乔·拜登(Joe Biden)在此事中成立,并开始与包括欧洲在内的世界其他地区进行摊牌,因此没有任何监管限制阻碍其美国冠军的发展。
该国还拒绝签署峰会的最终声明。在这本非结合文本中,六十个签署人(包括欧盟和中国)承诺促进AI”安全和信心»。在美国旁边,英国和阿拉伯联合酋长国也选择不签署文本,证明即使是简单的善意声明,也不会出现共识。
同样,如果在峰会之前创建了一个特定的法国机构 - Inesia(国家评估与安全研究所) - 它具有很少的手段 - 它确实没有配备清洁融资。足以构成一个真正的退后一步,有些遗憾,例如由研究人员和专家组成的法国协会AI(Cesia)的安全中心。
在公报该协会在周二结束时发表了遗憾”在AI上进行大量投资与分配给其安全性的资源之间的惊人偏移»。与2018年图灵奖获得者Yoshua Bengio同样的故事,魁北克人工智能学院MILA的创始人兼科学总监,为此峰会“错过的场合”D'“首先(ER)现实主义与高级模型快速发展有关的紧急风险问题”,他在他的x帐户。
«科学表明,AI在时间范围内构成了主要风险,要求世界领导人更加认真地掌握“,他仍然写道。
AI初创公司的老板人类,达里奥·阿莫迪(Dario Amodei),也很遗憾机会失败»。 «发行时间“,他在新闻稿中写道。国际讨论“ 必须 ”处理与该技术安全相关的日益增加的风险»。
没有公共当局对AI工具的风险评估
尤其是由于监管机构几乎无法评估生成AI工具中固有的风险,然后用户可以访问它。后者面临着“黑匣子AI的巨人拒绝打开,就像社交网络一样。
在这种情况下,很难衡量和评估风险,而没有技术公司的访问和协作。 AI公司在2023年在Bletchey峰会期间对自己的工作进行了评估。两年后,尽管AI法,欧洲人工智能法规,尽管自2024年9月以来,尽管有关于人工智能的良好实践守则。
对于2月11日山顶圆桌会议上表达的经合组织秘书长马蒂亚斯·科尔曼(Mathias Cormann),”经合组织已经制定了有关AI的原则,该原则最近已更新,以促进安全,信心的开发,专注于人类,但我们需要(...)风险和部署方法来减轻这些风险。在经合组织,我们有一个事件监测系统(…),我们有一种观测站来确定所采取的政治措施。”更多的“我们需要(...)一个治理框架,一个一般的监管框架。我们很远我们必须赶上,以便能够从AI的好处中获得完全安全的利益»。
有必要 ”今天担心当前的AI工具“根据这位老师的说法
对于澳大利亚阳光海岸的教授保罗·萨蒙(Paul Salmon),“关于AI安全问题的政府和公众的冷漠»通过一些误解解释。在对话,后者解释说是必要的。今天担心当前的AI工具»CES技术«已经对人类和社会造成了重大损害“他补充说,特别是引用”干预选举,替代人类工作,有偏见的决策 - 制作,深层诉讼,虚假信息和情报»。
在峰会期间,安全不是唯一被搁置的主题。注意语境2月12日星期三,,,,依恋保护个人和隐私数据»,这是峰会最初宣言的最初版本,最终从六十个国家签署的文本中消失了。在公报这位法国权力的捍卫者在峰会的第一天发表,负责捍卫我们的权利和自由的权力,但仍坚持因此,在这一重要时刻,基本权利不会被遗忘»。