被稱為「傑弗瑞辛頓教授改變了他對人工智慧有可能成為人類毀滅性結局的預測。
他在 BBC 廣播 4 台的「今日」節目中表示,他先前估計的人工智慧消滅人類的可能性為 10%,現在已提高到 20%。
關於人工智慧接管的可怕預測
根據衛報當被問及自先前的評論以來他的立場是否發生變化時,Hinton 回答說:“沒有,10 到 20 [%]。”節目主持人注意到了這一令人震驚的轉變,並強調了賠率的增加。
辛頓後來做了一個類比。他認為「不太聰明的東西」控制一個更聰明的實體的例子很少。他以母親和嬰兒為例。
談到人類在這個等式中的位置,辛頓告訴聽眾想像自己和一個三歲的孩子。他說,到那時我們都將是三歲的孩子了。
關注倡議的歷史
辛頓長期以來一直是直言不諱的批評者不受控制的人工智慧發展。今年早些時候,他辭去了在谷歌的職務,以自由地表達自己的擔憂。
這個東西實際上可以變得比人更聰明的想法——有些人相信這一點,」辛頓在宣布辭職後說。
人工智慧教父表示,大多數人認為這種轉變還很遙遠。他補充說,這可能會在 30 到 50 年後甚至更長時間內發生。
Hinton 談 OpenAI 的安全災難
Hinton 也談到了 OpenAI 的內部鬥爭,特別是最近執行長 Sam Altman 被罷黜。他讚揚了他以前的學生伊利亞·蘇茨克韋爾(Ilya Sutskever),後者是董事會政變的幕後人物之一。
「我特別自豪的是,我的一名學生解雇了 Sam Altman,」Hinton 在 2024 年 10 月說道,但拒絕透露更多資訊。
他後來解釋了 Sutskever 的原因,堅持認為人工智慧安全的必要性。根據2024年OpenAI 的成立非常注重安全性。然而,隨著時間的推移,奧特曼似乎只關心利潤而不關心安全,並表示這是一個非常「不幸」的情況。
呼籲謹慎
光是看看辛頓的地位和經驗,他的警告就給科技領袖和立法者敲響了警鐘。考慮到人工智慧正在迅速變化,他修改後的賠率突顯了實施嚴格的控制和道德準則以維護人類未來的緊迫性。
上週,科技時報報道稱正在慢慢甦醒。與美國同行相比,中國的開源模式正在迅速進步,這使其成為競爭對手的一個很好的替代方案。
隨著大型語言模型或法學碩士的出現,阿里巴巴和 DeepSeek 等本地科技巨頭正在利用用於製作聊天機器人或任何人工智慧相關作品的資料集。
從長遠來看,中國認為這是其相對於其他國家的優勢。這樣,該國也有效解決了有爭議的美國晶片禁令,證明即使發生也不是世界末日。事實上,這只是正在進行的人工智慧晶片戰爭的開始。