英国的科学,创新和技术委员会负责人警告说,人工智能(AI)监管机构缺乏财政支持,这对于跟上技术的增长是必不可少的。
一个报告AI治理委员会表示,政府在2月宣布的1000万英镑宣布支持通信办公室和其他当局对技术的崛起做出响应“显然不足”。
根据评估,即将到来的政府应该宣布适合企业规模的额外财政援助。该委员会对一些开发人员的模型不可用,而不是最近成立的AI安全研究所的开发人员模型。
它进一步指出,违反了2023年11月在布莱奇利公园会议上达成的协议,即将上任的政府应确定开发商拒绝访问权限并提供拒绝的理由。
根据科学,创新和技术部的说法,英国正在采取步骤提高技能监管机构,并监督AI作为更大的1亿英镑融资套餐的一部分。
强调了人工智能危险
该报告还强调了AI的欺骗能力。它指出,DeepFake内容旨在损害民主进程,因此,政府和当局应针对主持其保护其诚信的在线平台采取强有力的执法措施。
但是,该报告继续警告AI充当“黑匣子”的潜力,这意味着其输出的逻辑和基础可能未知。这可能是最重要的困难。

警告AI保障措施不足
该报告在5月20日发布警告后仅一周就发布了保障措施不足目前,应发生重大的AI突破。
二十五名专家,包括三位“ AI的教父”中的两名,杰弗里·欣顿(Geoffrey Hinton)和Yoshua Bengio,他们赢得了ACM图灵奖,被称为“诺贝尔计算奖”,因为他们的工作是“诺贝尔计算奖”。
学术研究提供了政府安全框架,如果技术在快速发展过程中迅速发展以应对极端的AI威胁,则将施加更严格的标准。
它还呼吁为科技公司建立更严格的风险检查标准,这是针对美国和英国的AI安全机构等最近建立的组织的更多资金,以及对在关键社会角色中使用自主AI系统的限制。
“ Sapiens”的最畅销作者,Yuval Noah Harari,已故的诺贝尔奖获得者Daniel Kahneman的诺贝尔奖获得者Daniel Kahneman,Sheila McIlraith,Toronto大学的AI教授Sheila McIlraith,以及加州大学伯克利分校的学者Dawn Song,也是伯克利分校的学者,也是该概念的其他共同的概念。
该研究警告说,“我们”还没有准备好应对这些危险。人类正在投入大量资金,以使AI系统更有能力,但在确保安全并减少可能产生的任何有害影响方面少得多。
