發展的安全人工智慧繼續處於世界的最前沿,擁有16家最大的公司據說在首爾的第二次全球AI峰會期間提出安全保證。
Google,Microsoft,Meta和Openai是在AI Seoul Summit上承諾自願安全的企業。這些承諾包括關閉其最先進的系統,如果他們無法控制最嚴重的危害。

XAI,法國的Mistral AI,中國的Zhipu.ai,Arab Arab Amirates,Amazon,Samsung,IBM和其他AI業務的G42簽署了安全承諾。他們承諾對公眾負責任的治理和開放性,以確保其最複雜的AI模型的安全。
為期兩天的會議是在11月在英國Bletchley Park舉行的AI安全峰會之後。對技術對人類和日常生活構成可能造成的損害的擔憂促使政府和國際組織迅速努力為其創造保障措施。
AI安全國家
他們在韓國總統Yoon Suk Yeol和英國總理Rishi Sunak的虛擬峰會上獲得了支持,從七個主要經濟體,歐盟,新加坡,澳大利亞和韓國。
據韓國總統辦公室稱,政府還決定優先考慮AI安全,創新和包容性。
共同主持此次活動的英國政府在一份聲明中說,來自十個國家以及歐盟的領導人將對AI安全產生共識,並協調他們在AI研究上的努力。
它補充說,自布萊奇利會議以來,安全機構網絡將包括美國,英國,日本和新加坡建立的網絡。
AI法規不足
“ AI的教父”和計算機科學家Yoshua Bengio讚揚了協議,但指出,自願承諾將需要進行監管支持。
這是在Bengio和其他AI專家之後發布了一項研究該警告說,面對重大突破,目前的AI法規不足。
警告來自25位科學家,其中包括班吉奧和杰弗裡·欣頓,他們獲得了ACM圖靈獎,這是計算機科學上的諾貝爾獎。
該文件指出,“我們”還沒有準備好成功處理這些風險。據說,儘管人類正在投入大量資金來增強AI系統的功能,但他們在確保這些系統安全並最大程度地減少任何潛在損害方面的支出要少得多。
薩皮恩斯(Sapiens)的最暢銷的作者尤瓦爾·諾亞·哈拉里(Yuval Noah Harari),已故的經濟學諾貝爾獎獲得者丹尼爾·卡尼曼(Daniel Kahneman),多倫多大學的AI教授希拉·麥克拉斯(Sheila McIlraith)和加利福尼亞大學伯克利分校的學者Dawn Song是該概念的其他合作者之一。

(照片:技術時報)