英國的科學,創新和技術委員會負責人警告說,人工智能(AI)監管機構缺乏財政支持,這對於跟上技術的增長是必不可少的。
一個報告AI治理委員會表示,政府在2月宣布的1000萬英鎊宣布支持通信辦公室和其他當局對技術的崛起做出響應“顯然不足”。
根據評估,即將到來的政府應該宣布適合企業規模的額外財政援助。該委員會對一些開發人員的模型不可用,而不是最近成立的AI安全研究所的開發人員模型。
它進一步指出,違反了2023年11月在布萊奇利公園會議上達成的協議,即將上任的政府應確定開發商拒絕訪問權限並提供拒絕的理由。
根據科學,創新和技術部的說法,英國正在採取步驟提高技能監管機構,並監督AI作為更大的1億英鎊融資套餐的一部分。
強調了人工智能危險
該報告還強調了AI的欺騙能力。它指出,DeepFake內容旨在損害民主進程,因此,政府和當局應針對主持其保護其誠信的在線平台採取強有力的執法措施。
但是,該報告繼續警告AI充當“黑匣子”的潛力,這意味著其輸出的邏輯和基礎可能未知。這可能是最重要的困難。

警告AI保障措施不足
該報告在5月20日發布警告後僅一周就發布了保障措施不足目前,應發生重大的AI突破。
二十五名專家,包括三位“ AI的教父”中的兩名,杰弗裡·欣頓(Geoffrey Hinton)和Yoshua Bengio,他們贏得了ACM圖靈獎,被稱為“諾貝爾計算獎”,因為他們的工作是“諾貝爾計算獎”。
學術研究提供了政府安全框架,如果技術在快速發展過程中迅速發展以應對極端的AI威脅,則將施加更嚴格的標準。
它還呼籲為科技公司建立更嚴格的風險檢查標準,這是針對美國和英國的AI安全機構等最近建立的組織的更多資金,以及對在關鍵社會角色中使用自主AI系統的限制。
“ Sapiens”的最暢銷作者,Yuval Noah Harari,已故的諾貝爾獎獲得者Daniel Kahneman的諾貝爾獎獲得者Daniel Kahneman,Sheila McIlraith,Toronto大學的AI教授Sheila McIlraith,以及加州大學伯克利分校的學者Dawn Song,也是伯克利分校的學者,也是該概念的其他共同的概念。
該研究警告說,“我們”還沒有準備好應對這些危險。人類正在投入大量資金,以使AI系統更有能力,但在確保安全並減少可能產生的任何有害影響方面少得多。
