今年 2022 年 7 月 22 日,埃里克·施密特2001年至2011年擔任Google總監,參加阿斯本(美國)安全論壇。在一次會議上,前執行總裁比較了人工智慧(AI)到核彈。
“我們還沒有準備好進行我們需要的談判。” –@艾瑞克施密特 #AspenSecurity pic.twitter.com/As749t6ZyU
— 阿斯本安全論壇 (@AspenSecurity)2022 年 7 月 22 日
基於這個比較,施密特建議所有大國,例如美國和中國,努力創造信任關係關於人工智慧。這位商人認為,這種關係一定更貼近政策。核武威懾包括法國在內的許多國家都已實施。
埃里克·施密特呼籲在人工智慧問題上採取威懾政策
這項軍事戰略誕生於第二次世界大戰的廢墟中,其特點是在遭受外國攻擊時持有核武。的前景核反應從而阻止敵人使用自己的導彈。根據這個理論,攻擊者不會使用核武器,從而維護了國家之間的和平。
冷戰期間,這項政策導致禁止秘密核子試爆。具體來說,任何組織核子試驗的國家都必須警告外國勢力。此規則可防止嘗試被解釋為攻擊並觸發回應。
「在 50 年代和 60 年代,我們終於創造了一個存在規則的世界“不足為奇”關於核子試驗。 [……]我們必須開始建立一個系統,因為你武裝自己或做好準備,你就會觸發與另一方相同的事情。我們沒有人從事這方面的工作,但人工智慧卻如此強大””,埃里克·施密特解釋。
這位億萬富翁強調說,這項政策必須適用於人工智慧,因為人工智慧與核武一樣危險。谷歌前領導人對此表示遺憾類似的系統核威懾並沒有到位來管理人工智慧的發展。如果沒有障礙,這項技術的興起可能會產生有害的後果。
這位慈善家在演講中設想了一個美國和中國必須就人工智慧發展達成一致的未來。施密特呼籲這兩個大力投資人工智慧技術的世界大國建立一項類似核能的威懾條約。
應對人工智慧挑戰的基金
鏡像施密特,桑達爾·皮查伊 (Sundar Pichai),谷歌巨頭現任首席執行官,認為人工智慧絕對必須受到監管。在近年來發表的幾篇訪談中,他將人工智慧比喻為火或電。
«人工智慧的進步仍處於早期階段,但我認為這是人類有史以來最深刻的技術,我們需要確保利用它為公司帶來最大的利潤。[…]火也會殺人。我們已經學會為了人類的利益而控制它,但我們也學會了控制它的壞面»,Sundar Pichai 在 2018 年接受採訪時特別解釋道重新編碼。
為了監督人工智慧的發展,埃里克·施密特創建了AI2050基金去年二月。該基金保留給學術界,將注入 1.25 億美元用於資助«研究“難題”在人工智慧方面。該倡議將特別關注演算法程式設計偏見、地緣政治衝突和技術濫用。