三分之一的人工智慧研究人員認為人工智慧可能造成與本世紀核戰相當的「災難性」結果
當某個領域 36% 的人認為這可能會導致災難時,這是一個好兆頭嗎?
一項針對人工智慧 (AI) 領域科學家和研究人員的調查發現,大約三分之一的人認為人工智慧可能會造成一場堪比全面核戰的災難。
這項調查的對像是至少共同撰寫了兩篇計算論文的研究人員語言學2019 年至 2022 年期間的出版品。 它的目的是發現業界對人工智慧和通用人工智慧 (AGI) 有爭議的話題的看法——人工智慧像人類一樣思考的能力——以及研究領域的人們認為的影響人工智慧將對整個社會產生影響。 結果發表在尚未經過同行評審的預印本論文中。
正如論文所指出的,AGI 是該領域一個有爭議的話題。 對於我們是否正在朝著這個目標前進,這是否是我們應該瞄準的目標,以及當人類到達那裡時會發生什麼,人們的意見存在很大分歧。
「整個社區都知道這是一個有爭議的問題,現在(透過這項調查)我們可以知道我們知道這是有爭議的,」該團隊在他們的研究中寫道。 在(相當不同的)調查結果中,58% 的受訪者認為 AGI 應該成為自然語言處理的一個重要關注點,而 57% 的受訪者認為最近的研究推動我們走向 AGI。
有趣的是人工智慧研究人員認為通用人工智慧將如何影響整個世界。
研究人員表示:“73% 的受訪者認為,人工智慧帶來的勞動力自動化可能會在本世紀帶來革命性的社會變革,至少達到工業革命的規模。”寫了他們的調查。
同時,36% 的受訪者一致認為,人工智慧可能在本世紀產生災難性後果,「達到全面核戰的程度」。
當一個領域的很大一部分人相信這可能導致人類毀滅時,這並不是最令人放心的事情。 然而,在回饋部分,一些受訪者反對「全面核戰」的措辭,並寫道他們「同意問題中不那麼極端的措辭」。
團隊寫道:“這表明我們 36% 的結果低估了嚴重擔心人工智慧系統負面影響的受訪者。”
儘管 (也許有充分的理由)出於對 AGI 潛在災難性後果的警惕,研究人員壓倒性地同意自然語言處理“對世界產生積極的整體影響,無論是現在(89%)還是未來(87%)。”
「雖然觀點是反相關的,但 23% 的受訪者中,有相當少數人同意 Q6-2(AGI 可能造成與全面核戰同等的災難性後果)和 Q3-4(NLP 對研究人員寫道,“這表明他們可能相信NLP 產生積極影響的潛力是如此之大,甚至超過了對文明的合理威脅。”
其他調查結果包括,74% 的人工智慧研究人員認為私部門對該領域的影響太大,60% 的人認為訓練大型模型的碳足跡應該是 NLP 研究人員主要關心的問題。
該論文發表於預印本伺服器 arXiv