Max Tegmark,專業人工智慧倡導者和科學家警告說,大型技術正在偏離AI的致命威脅。 Tegmark在首爾的AI峰會上說,專注於安全而不是AI殺死慢速監管的能力。
Tegmark將其比作Enrico Fermi的1942年核反應堆創新,導致核武器。據《衛報》報導,他以杰弗裡·欣頓(Geoffrey Hinton)和尤舒亞·本格奧(Yoshua Bengio)的擔憂為由說:“通過圖靈測試,通過圖靈測試也是一個類似的警告。”
在去年Openai的GPT-4首次亮相之後,Tegmark的《 Life Institute》的未來推薦了有關高級AI開發的六個月中斷。專業支持並沒有導致任何停頓。像首爾這樣的AI會議導致了監管辯論,但Tegmark表示,公司的壓力已使重點擺脫了最嚴重的關注。
Tegmark還將大型科技公司的遊說工作與“煙草公司如何推遲吸煙法規”進行了比較。由於公眾關注以及對政府施加的安全標準的需求,他呼籲迅速採取行動。
研究:AI可能導致人類滅絕
Max Tegmark的警告發出後,政府委託評估表明AI可能代表“滅絕級威脅對人類的物種,”按時間報導。
該出版物在3月份報導說,它收到了一份文件,警告AI研究構成了緊急和不斷增加的國家安全危險,將其比喻為核武器的動盪。它顯示了人工智能(AGI)的潛力,這是一種假設的技術,它可能會在五年內處理大多數活動。
三名研究人員寫了“一項行動計劃,以提高AI的安全和保障”,諮詢了來自OpenAI,Google DeepMind,Anthropic和Meta的200多名政府官員,專家和工人。這些公司決策中偏斜的激勵措施是有問題的。
關鍵建議包括禁止在新的聯邦AI代理機構確定的計算機功率級別上進行AI模型培訓。該機構將迫使AI企業在培訓和部署新模型之前獲得政府批准。該研究還表明,加強了AI芯片製造和出口規則,並增加了聯邦對AI安全研究的支持。

調節AI的挑戰
這些舉措可能會遇到政治障礙。戰略與國際研究中心WADHWANI AI和高級技術中心主任Greg Allen對實施這些建議的持懷疑態度,因為目前的政策偏愛透明度和監管而不是AI培訓限制。
值得注意的是,Openai的超級對準團隊負責管理超人的生存問題AI系統已經溶解,如Gizmodo先前報導。該團隊的創始人伊利亞·薩特克弗(Ilya Sutskever)和揚·萊克(Jan Leike)同時辭職。
2023年7月,超級對準團隊試圖防止超人AI系統成為流氓。 Wired聲稱OpenAI將在其研究中包括該團隊的職責。 OpenAI聯合創始人John Schulman將領導有關高級AI模型危險的研究。
揚·萊克(Jan Leike)宣布了他在X(以前是Twitter)上的Openai辭職。他強調了與業務領導力的反复衝突,並在基本原則上以及該團隊為獲得重要研究的計算資源而努力。 Leike說,OpenAI必須優先考慮AI開發中的安全性,安全性和一致性。
