常見的問題是是一個無窮無盡的悖論。自動化程度越高,人類需要做的工作就越多。
Meta 的首席人工智能科學家 Yann LeCun 樂觀地認為,包括超級智能在內的人工智能將繼續處於人類的控制之下。在 Nvidia 的 GTC 會議上,他討論了人工智能取代人類的潛力,但強調社會可能會拒絕這樣的結果。
人工智能是一種強大的工具,而不是替代品
回應英偉達首席科學家 Bill Dally 的說法,即人類正在通過 AI“為人們提供動力工具”,嚴樂存表示人工智能最終可能比人類更有能力,但仍然由人負責。
這位 64 歲的計算機科學家認為,超級智能人工智能更像是一支訓練有素的助手大軍,而不是決策者。
“我的意思是,基本上我們與未來人工智能係統(包括超級智能)的關係是我們將成為他們的老闆,”LeCun 說。 “我們將擁有一支超級聰明、美麗的員工為我們工作。
“我不了解你,但我喜歡與比我聰明的人一起工作,”他補充道。 “這是世界上最偉大的事情。”
超級智能:創新還是滅絕?
關於超級智能的爭論,我們指的是比人腦更聰明的人工智能係統,這往往會引起對世界末日的恐懼。 OpenAI 首席執行官薩姆·奧爾特曼 (Sam Altman) 和 xAI 創始人埃隆·馬斯克 (Elon Musk) 等人警告說,人工智能可能會導致滅絕級別的事件。
但 LeCun 一直否認這些擔憂。在 2024 X(前 Twitter)帖子中,他將超級智能推翻人類的前景稱為“科幻比喻”和“荒謬的情況,違背了我們對事物運作方式的所有了解”。
對於其他研究人員來說,。他們相信,一旦它超越了程序員的任務,人類就很難設定它的局限性。
目前還沒有超級智能的藍圖
在一個商業內幕在報告中,LeCun 強調人類距離創造超級智能人工智能係統還差得很遠。他解釋說,超級智能的崛起不會是一個事件。
LeCun 補充說,超級智能係統的藍圖尚未建立,但有一個重要的基礎人工智能架構可以幫助我們到達那裡。
真正的風險:人工智能的濫用和不可靠
LeCun承認AI系統目前受到以下問題的困擾和不可靠性。儘管如此,他堅信答案是創造“更好的人工智能”。
LeCun 認為,解決這個問題的方法是改進人工智能。具有常識、推理能力以及估計自身響應可靠性的系統。









