人工智慧繼續迅速發展,甚至專家也是據說警告政府保障措施無法應對蓬勃發展的技術的重大突破。
25位專家,包括三位“ AI的教父”中的兩名,Geoffrey Hinton和Yoshua Bengio,他們贏得了ACM Turing Award,這是諾貝爾獎的計算機科學獎,他們的作品就提出了建議。
政府需要安全法規,如果商品達到特定水平,該組織表示,科技公司朝著自主系統邁向自主系統的能力可能會大大增加AI的影響。
在快速發展的情況下,為了管理極端的AI危害,學術研究表明,如果技術迅速發展,政府的安全框架會施加更嚴格的標準。

它還需要為美國和英國的AI安全機構等最近成立的組織,對科技公司的風險檢查要求提供更多的支持,以及對在關鍵社會角色中使用自主AI系統的局限性。
思想的其他合著者包括薩皮恩斯(Sapiens)最暢銷的作者尤瓦爾·諾亞·哈拉里(Yuval Noah Harari);已故的丹尼爾·卡尼曼(Daniel Kahneman),諾貝爾經濟學冠軍;多倫多大學的AI教授Sheila McIlraith;還有伯克利分校的學者Dawn Song。
該報紙於週一發表,介紹了在Bletchley會議前提出的同行評審更新。
該文件”在快速進步的情況下管理極端的AI風險“問題警告,指出“我們”沒有準備好可充分管理這些風險。人類正在專門資源來提高AI系統的能力,但要確保其安全性並最大程度地減少其負面影響。
只有1%至3%的AI文章涵蓋安全性。該論文說,重新定位對於AI是有益的必要條件,因為僅僅提高AI功能是不夠的。
類似的AI法規警告
新論文呼應了日本頂級公司對更好的AI法規的類似需求。就在今年4月,日本電報和電話(NTT)和Yomiuri Shimbun Group Holdings據說在公司聲稱不受監管的AI可能崩潰的社會秩序並引起戰爭之後,要求快速採用AI法規。
儘管強調了生成AI在提高生產率方面的潛在優勢,但日本公司發表的宣言通常對該技術持懷疑態度。
它聲稱AI系統已經開始違反人類的尊嚴,因為偶爾會引起用戶的關注而不考慮真理或道德。
根據聲明,日本應迅速採取行動,並製定法規,以保護選舉和國家安全免受生成AI的濫用。
Openai的保障弊端
在不祥的發展中,AI領導人,Openai也最近在許多關鍵超級分組成員最近辭職之後,遇到了維護上級AI的一些缺點。
Jake Leike, the co-lead of OpenAI Superalignment at DeepMind, which created ChatGPT, GPT-4, and InstructGPT, explained his resignation, saying that he and OpenAI had finally "reached a breaking point," since he and the OpenAI management had been "disagreeing" for some time about "core priorities," and that future AI model preparation ignored security, monitoring, and social effects.
超級對準於上週辭職的Openai聯合創始人Leike和Ilya Sutskever的指導下成立。該團隊的目標是在四年內從技術上控制超級智能AI。
來自各個部門的一群科學家和工程師進行了安全測試,並向其他研究人員授予了贈款,總計數百萬美元。萊克(Leike)在X上說,試圖製造比人類更聰明的機器本質上是有害的。
