发展的安全人工智能继续处于世界的最前沿,拥有16家最大的公司据说在首尔的第二次全球AI峰会期间提出安全保证。
Google,Microsoft,Meta和Openai是在AI Seoul Summit上承诺自愿安全的企业。这些承诺包括关闭其最先进的系统,如果他们无法控制最严重的危害。

XAI,法国的Mistral AI,中国的Zhipu.ai,Arab Arab Amirates,Amazon,Samsung,IBM和其他AI业务的G42签署了安全承诺。他们承诺对公众负责任的治理和开放性,以确保其最复杂的AI模型的安全。
为期两天的会议是在11月在英国Bletchley Park举行的AI安全峰会之后。对技术对人类和日常生活构成可能造成的损害的担忧促使政府和国际组织迅速努力为其创造保障措施。
AI安全国家
他们在韩国总统Yoon Suk Yeol和英国总理Rishi Sunak的虚拟峰会上获得了支持,从七个主要经济体,欧盟,新加坡,澳大利亚和韩国。
据韩国总统办公室称,政府还决定优先考虑AI安全,创新和包容性。
共同主持此次活动的英国政府在一份声明中说,来自十个国家以及欧盟的领导人将对AI安全产生共识,并协调他们在AI研究上的努力。
它补充说,自布莱奇利会议以来,安全机构网络将包括美国,英国,日本和新加坡建立的网络。
AI法规不足
“ AI的教父”和计算机科学家Yoshua Bengio赞扬了协议,但指出,自愿承诺将需要进行监管支持。
这是在Bengio和其他AI专家之后发布了一项研究该警告说,面对重大突破,目前的AI法规不足。
警告来自25位科学家,其中包括班吉奥和杰弗里·欣顿,他们获得了ACM图灵奖,这是计算机科学上的诺贝尔奖。
该文件指出,“我们”还没有准备好成功处理这些风险。据说,尽管人类正在投入大量资金来增强AI系统的功能,但他们在确保这些系统安全并最大程度地减少任何潜在损害方面的支出要少得多。
萨皮恩斯(Sapiens)的最畅销的作者尤瓦尔·诺亚·哈拉里(Yuval Noah Harari),已故的经济学诺贝尔奖获得者丹尼尔·卡尼曼(Daniel Kahneman),多伦多大学的AI教授希拉·麦克拉斯(Sheila McIlraith)和加利福尼亚大学伯克利分校的学者Dawn Song是该概念的其他合作者之一。

(照片:技术时报)