在宣布的投資背後法國的10090億歐盟為2000億,“峰會以行動從2月11日星期二結束的巴黎,他面對與AI系統有關的風險,提出了安全臣民的提升?世界各地是否在這個非常敏感的問題上達成共識?
對於某些專家而言,巴黎AI峰會不允許任何進展:相反,後者註意到了主題的下降。儘管伊曼紐爾·馬克龍(Emmanuel Macron)的陳述提倡”信心»開發AI所必需的。儘管這是有希望的開端。
“我沒有來這裡談論IA安全»»
2月6日,活動的上游,IA安全報告“出版了,一種”關於AI安全的科學文獻摘要”,相當於ICAC報告。平行事件和會議是由非政府組織暫停IA組織的。
但這是不指望美國副總統VD Vance的進攻性講話,後者席捲了所有向這個問題提出的希望。 “”我沒有來這裡談論IA安全”在2月11日星期二活動結束時,技術授權說。他說,現在是冒險並審慎的審慎的時候了,解決了歐洲人的意願”擰緊螺絲“美國AI和數字巨頭及其法規”過多的»et«昂貴的»。
但是,兩年前,AI安全是Bletchley Summit的主要主題,該主題於2023年在英國組織。但是後者被降級為第二個 - 甚至是最後一個計劃。在法國的最終宣言中幾乎沒有提到。
一些專家的倒退
出於多種原因解釋的差異。首先是因為新美國政府捍衛了放鬆管制方法。唐納川普刪除了幾個稀有彈藥由喬·拜登(Joe Biden)在此事中成立,並開始與包括歐洲在內的世界其他地區進行攤牌,因此沒有任何監管限制阻礙其美國冠軍的發展。
該國還拒絕簽署峰會的最終聲明。在這本非結合文本中,六十個簽署人(包括歐盟和中國)承諾促進AI”安全和信心»。在美國旁邊,英國和阿拉伯聯合酋長國也選擇不簽署文本,證明即使是簡單的善意聲明,也不會出現共識。
同樣,如果在峰會之前創建了一個特定的法國機構 - Inesia(國家評估與安全研究所) - 它具有很少的手段 - 它確實沒有配備清潔融資。足以構成一個真正的退後一步,有些遺憾,例如由研究人員和專家組成的法國協會AI(Cesia)的安全中心。
在公報該協會在周二結束時發表了遺憾”在AI上進行大量投資與分配給其安全性的資源之間的驚人偏移»。與2018年圖靈獎獲得者Yoshua Bengio同樣的故事,魁北克人工智能學院MILA的創始人兼科學總監,為此峰會“錯過的場合”D'“首先(ER)現實主義與高級模型快速發展有關的緊急風險問題”,他在他的x帳戶。
«科學表明,AI在時間範圍內構成了主要風險,要求世界領導人更加認真地掌握“,他仍然寫道。
AI初創公司的老闆人類,達里奧·阿莫迪(Dario Amodei),也很遺憾機會失敗»。 «發行時間“,他在新聞稿中寫道。國際討論“ 必須 ”處理與該技術安全相關的日益增加的風險»。
沒有公共當局對AI工具的風險評估
尤其是由於監管機構幾乎無法評估生成AI工具中固有的風險,然後用戶可以訪問它。後者面臨著“黑匣子AI的巨人拒絕打開,就像社交網絡一樣。
在這種情況下,很難衡量和評估風險,而沒有技術公司的訪問和協作。 AI公司在2023年在Bletchey峰會期間對自己的工作進行了評估。兩年後,儘管AI法,歐洲人工智能法規,儘管自2024年9月以來,儘管有關於人工智能的良好實踐守則。
對於2月11日山頂圓桌會議上表達的經合組織秘書長馬蒂亞斯·科爾曼(Mathias Cormann),”經合組織已經制定了有關AI的原則,該原則最近已更新,以促進安全,信心的開發,專注於人類,但我們需要(...)風險和部署方法來減輕這些風險。在經合組織,我們有一個事件監測系統(…),我們有一種觀測站來確定所採取的政治措施。”更多的“我們需要(...)一個治理框架,一個一般的監管框架。我們很遠我們必須趕上,以便能夠從AI的好處中獲得完全安全的利益»。
有必要 ”今天擔心當前的AI工具“根據這位老師的說法
對於澳大利亞陽光海岸的教授保羅·薩蒙(Paul Salmon),“關於AI安全問題的政府和公眾的冷漠»通過一些誤解解釋。在對話,後者解釋說是必要的。今天擔心當前的AI工具»CES技術«已經對人類和社會造成了重大損害“他補充說,特別是引用”干預選舉,替代人類工作,有偏見的決策 - 製作,深層訴訟,虛假信息和情報»。
在峰會期間,安全不是唯一被擱置的主題。注意情境2月12日星期三,,,,,依戀保護個人和隱私數據»,這是峰會最初宣言的最初版本,最終從六十個國家簽署的文本中消失了。在公報這位法國權力的捍衛者在峰會的第一天發表,負責捍衛我們的權利和自由的權力,但仍堅持因此,在這一重要時刻,基本權利不會被遺忘»。