隨著人工智慧安全高峰會於 11 月 1 日星期三在英國開幕,專家們對 OpenAI 或谷歌等人工智慧領域主導公司的「策略」感到震驚,這些公司呼籲監管,或提出要求人類滅絕的幽靈。他們的目標是:盡可能影響正在努力監管人工智慧產業的監管機構,並挫敗他們的競爭對手——例如開源人工智慧模型。
當巨人人工智慧試圖在監管機構耳邊竊竊私語…今年11月1日至2日,人工智慧(AI)安全高峰會在英國舉行。值此之際,該行業的主要公司,例如開放人工智慧專家警告說,谷歌將運用不同的「策略」來試圖影響辯論,並利用未來的法律為自己謀利。
提出人工智慧造成人類滅絕的威脅、要求監管、把人工智慧擺得顯而易見……這些業界大佬和遊說者的主要策略在峰會的這兩天不會被忽視。是二戰時期英國的解密中心,距離倫敦約50 分鐘路程。
加劇大規模滅絕的威脅
從人工智慧巨頭的第一個策略開始,該策略將於去年三月實施。專家表示,這涉及人們對人工智慧可能造成的人類毀滅的擔憂,這種風險不一定被否認,但會被故意誇大和加劇。在呼籲暫停六個月的公開信去年 3 月,超過 1,000 名商界領袖簽署了關於人工智慧發展的協議,其作者對“為社會和人類帶來深遠的風險» 由這些人工智慧系統構成。 “減輕與人工智慧相關的滅絕風險應成為全球優先事項»,他們寫道。
此後,OpenAI、微軟和DeepMind多次呼應這項消息。 10 月 26 日,OpenAI 在一篇文章中解釋道部落格文章他打算召集一個專家團隊來應對風險“災難性的» 一個新團隊中的人工智慧,稱為“準備工作»。 « C與直覺相反,推動生成人工智慧發展的領導者(編者註,該領域的領導人)是那些對風險發出警報並盡最大努力影響法律制定進程的人。他們既是在空無一人的劇場裡高喊「著火了」的人,也是開著消防車趕來的人»,專門從事自然語言處理的公司 Eigen Technologies 的創始人 Lewis Liu 在以下專欄中進行了分析:金融時報。
史丹佛大學教授吳恩達 (Andrew Ng) 接受採訪澳洲金融評論10月30日,更進一步。向薩姆·奧爾特曼教授機器學習、在百度領導人工智慧的人認為,人工智慧可能導致人類滅絕這個想法本身就是一種錯誤。說謊。大型科技公司將使用它來實現一個目標:導致嚴格的監管,結束人工智慧市場的競爭,有利於 OpenAI-微軟或Google等先行者。
對於吳恩達來說,我們從“人工智慧可以讓我們消失» 提出另一個想法。也就是說:讓人工智慧更安全的唯一方法是對人工智慧產業提出嚴格要求——這將有效地壓制創新——以及新的競爭對手,包括那些開發開源人工智慧的公司。 “當然,也有一些大型科技公司不願意與開源人工智慧競爭,因此他們製造了人工智慧將導致人類滅絕的恐懼»,他向我們的同事解釋。
人類的滅絕已經成為“遊說者捍衛對開源社群非常有害的立法的武器»,他補充道。後者不主張缺乏監管,而是主張“周到的監管» 首先要提高科技公司的透明度。
與被認為是深度學習之父之一的法國研究人員 Yann Le Cun 的故事相同,他在 Meta 領導人工智慧研究——馬克·祖克柏的團隊是唯一提出開源語言模型 (LLaMA)。對於被譽為電腦科學諾貝爾獎的 2018 年圖靈獎得主來說,«關於存在風險的爭論還為時過早」。人工智慧可能有意或默認地殺死人類的想法是“荒誕»,他解釋道金融時報上個月。目前, ”我們不會設計出一個在學習能力上能夠與貓競爭的系統»。
對 Yann Le Cun 來說,關注人類滅絕的假設未來風險有一個目標:顯示主要科技公司是唯一能夠安全開發人工智慧的公司。這將導致實施他認為過於嚴厲的監管關於研究和開發所有公司都應該保護自己免受這種存在風險的影響,而不是專注於產品部署。結果:他強調,來自開源模型(Meta 是其中一部分)的競爭將受到阻礙。最終,只有矽谷和中國的少數公司將控制人工智慧平台,他感嘆道X帳戶。
只關注前沿模型
這個策略類似於只監管未來的人工智慧系統,或者最先進的人工智慧模型,“前沿模型”,這將比今天部署的危險得多。透過將我們的努力集中在尚不存在的、遙遠的未來,我們不會監管當前的系統。
然而,據 10 月 30 日星期一舉行的人工智能“反峰會”背後的一組專家稱,11 月 1 日和 2 日舉行的世界峰會並未討論“明顯的緊迫性" 人工智慧.然而,由於目前公眾可以使用的工具(例如 ChatGPT、Bard、Dall-E 等)的危險已被記錄和批評,因此還有很多工作要做。發現的問題包括缺乏透明度、散佈虛假消息和人工智慧生成的深度贗品、作品的使用受版權保護或用於訓練人工智慧系統的其他權利,剝削報酬過低的勞動力訓練這些工具,種族主義偏見或性別歧視者,或者權力集中在少數公司手中——這個清單遠非詳盡無遺。
正是這種策略將辯論限制在Google、微軟、Anthropic 和 OpenAI 將採用的最複雜的未來系統。這四家公司去年7月宣布成立一個名為“前沿模型論壇»。所提出的目標恰恰是促進“負責任、安全發展» 對於“前沿模型」。但對於這些最先進的人工智慧模式來說,安全、負責任或道德的人工智慧會是什麼樣子呢?目前還沒有明確的答案,特別是因為這樣的定義將來自該行業的主要參與者,他們將盡一切努力避免設置太重或太嚴格的規則障礙。
這一策略在一些國家可能會奏效。在美國,法令於 10 月 30 日星期一發布人工智慧開發人員有一項新義務,在向公眾開放人工智慧之前,必須與美國政府分享其安全測試結果。但該通知僅適用於正在開發的人工智慧。這對健康和安全(…)、經濟或國家安全構成嚴重風險”。因此退出現有系統,然而,必須始終尊重“現行法律» 美國競爭主管機構負責人莉娜汗 (Lina Khan) 回憶道,關於競爭和消費者保護X。他們真的這麼做了嗎?問題出現了。
“監管我們!” »
提高人類滅絕的威脅有一個必然的結果:對監管的需求。這是 ChatGPT 背後的新創公司 OpenAI 的老闆 Sam Altman 所採用的方法。三十歲的人從未停止要求被監管,例如去年五月在美國參議院舉行的聽證會上。 «當一家處於有利地位的公司要求接受監管時,即使它看起來是為了給行業帶來好處而屈服,但它實際上是在嘗試一種被稱為「監管捕獲」的策略。為了什麼 ?她比監管者更了解技術»,微軟前經理史蒂文·辛諾夫斯基(Steven Sinofsky)在他的 X 帳戶上解釋道:“聲稱技術失控,字面上要求受到監管»,他補充道。
https://twitter.com/stevesi/status/1659271710070407169?s=20
«要非常警惕那些舉手說「監管我,監管我」的人工智慧技術領導者。政府可能會忍不住衝進去並相信他們的話人工智慧晶片製造商 Graphcore 的執行長 Nigel Toon 在一份報告中指出部落格文章從 10 月 23 日起。
美國喬治亞大學歷史學教授 Stephen Mihm 在專欄中回憶道,因為如果監管應該迫使強者尊重遊戲規則,那麼歷史表明這並不完全正確。華盛頓郵報。過去,佔據行業主導地位的公司也公開主張監管,就像薩姆·奧爾特曼現在所做的那樣。但當時,就像今天一樣,他們的動機更多地與他們的利潤和競爭優勢聯繫在一起,而不是與普遍利益聯繫在一起,他在提到所謂的“監管捕獲»。
這個概念是經濟學家喬治·史蒂格勒 (George Stigler) 於 1971 年在一篇題為「經濟監管理論」的文章中理論化的。後者認為,大型現有公司通常會利用法規來挫敗競爭對手。監管幾乎總是會服務於這些公司的利益,例如強制實施只有他們才能遵守的眾多手續。
因此,監管捕獲就等於讓公司製定服務於自身利益的規則,而損害了整體利益 — — 這一理論在今天可以找到趨同點。在薩姆·奧爾特曼在美國參議院的聽證會上,我們可以聽到來自路易斯安那州的共和黨參議員約翰·肯尼迪對 OpenAI 的老闆提出了很多要求:“告訴我們要實施哪些規則」。白宮、美國參議院和歐盟委員會接待了該行業巨頭的老闆。辯論的其他各方是否按照要求參加了辯論?
根據專家引述的說法,在目前在倫敦附近舉行的人工智慧安全高峰會上,目前主導人工智慧的公司代表人數過多衛報,10 月 31 日星期二。對某些人來說錯失了機會,因為“高峰會未能邀請更多受人工智慧顛覆影響的專家和民眾代表» 前歐洲議會議員兼歐盟委員會特別顧問 Marietje Schaake 強調,數位服務監管,被我們的同事引用。
她補充道:“英國政府聽取了選擇自我監管的企業的意見(…)」 –以及建立自願承諾。還會聽到不和諧的聲音嗎?
另請閱讀:人工智慧監管:為何仍滯留在歐洲?