
人工通用情報(AGI)是人工智能(AI)科學家正在努力創建通常比人類更聰明的計算機系統的研究。這些假設的系統可能具有一定程度的自我理解和自我控制,包括編輯自己的代碼的能力 - 並能夠學習解決人類等問題,而無需訓練。
該術語首先是在“人工通用情報(Springer,2007年),由計算機科學家編輯的論文集本·戈爾澤爾(Ben Goertzel)和人工智能研究員卡西奧·潘納辛(Cassio Pennachin)。但是這個概念在整個過程中已經存在數十年AI的歷史,以及許多流行的科幻書籍和電影中的功能。
當今使用的AI服務(包括Facebook上使用的基本機器學習算法,甚至是大型語言模型(例如ChatGpt))被認為是“狹窄”。這意味著他們至少可以執行一項任務(例如圖像識別)比人類更好,但僅限於基於他們經過培訓的數據而限於該特定類型的任務或一組操作。另一方面,AGI將超越其培訓數據的範圍,並在生活和知識的各個領域展示人類水平的能力,其推理和情境水平與一個人相同。
但是,由於AGI從未建立過,因此科學家之間對它可能對人類的意義尚無共識,這比其他人更有可能或社會含義可能是什麼。一些人以前曾推測它永遠不會發生,但是許多科學家和技術人員正在圍繞實現的想法而融合在接下來的幾年內- 包括計算機科學家Ray Kurzweil和Mark Zuckerberg,Sam Altman和埃隆·馬斯克(Elon Musk)。
AGI的好處和風險是什麼?
AI已經在各個領域表現出了許多好處協助科學研究節省人們的時間。例如,諸如內容生成工具之類的新系統為營銷活動生成藝術品或基於用戶的對話模式的草稿電子郵件。但是,這些工具只能執行他們經過培訓的特定任務 - 基於所提供的數據開發人員。另一方面,AGI可能會解鎖另一股人類利益,尤其是在需要解決問題的領域。
有關的:22工作人工通用情報(AGI)可以替代 - 它可以創造10個工作
假設地,AGI可以幫助增加資源的豐富能力,渦輪增壓全球經濟,並有助於發現新的科學知識,以改變可能的局限性,OpenAI首席執行官Sam Altman在博客文章於2023年2月出版 - Chatgpt上網三個月後。 Altman補充說:“ Agi有可能為每個人提供令人難以置信的新能力;我們可以想像一個世界,我們所有人都有機會幾乎可以幫助完成任何認知任務,從而為人類創造力和創造力提供了巨大的力量乘數。”
但是,AGI構成的存在許多存在風險 - 從錯位,“其中一個系統的基本目標可能與控制該系統的目標可能與人類控制的目標相匹配,這與未來系統的“非零機會”消除了所有人類。麝香在2023年。一份評論,於2021年8月發表在實驗和理論人工智能雜誌,概述了未來AGI系統的幾種可能風險,儘管它可能會帶來“巨大的好處”。
“審查確定了與AGI相關的一系列風險,包括AGI從人類所有者/經理的控制中脫離了自己的控制,被給予或製定不安全的目標,不安全的AGI的發展,道德規範,道德和價值觀的AGI; AGI的管理不足以及AGI的管理不足以及存在的風險,”作者在研究中寫道。
作者還假設未來的技術可以“有能力通過創建自身的更聰明的版本並改變其預編程的目標來遞歸自我爆發。”研究人員寫道,也有可能成群的人類為惡意使用而創造AGI,以及善意的Agi帶來的“災難性意外後果”。
AGI什麼時候發生?
關於人類是否可以真正構建一個足夠強大的系統以成為AGI的系統有競爭的看法,更不用說何時構建了這樣的系統了。一個評估AI科學家之間的幾項重大調查表明普遍的共識是它可能發生在本世紀末之前發生 - 但隨著時間的推移,觀點也發生了變化。在2010年代,共識的觀點是AGI距離酒店約50年。但是最近,該估計已被削減到五到20年之間的任何地方。
最近幾個月,許多專家表明,這個十年的某個時候將出現AGI系統。這是庫茲維爾在他的書中提出的時間表“奇異性更接近”(2024年,企鵝) - 我們達到了代表技術奇異性的時刻。
這一刻將是沒有回報的一點,此後,技術增長變得無法控制和不可逆轉。庫茲維爾預測,阿吉的里程碑將導致2030年代的超級智能,然後在2045年,人們將能夠直接將自己的大腦與AI聯繫 - 這將擴大人類的智力和意識。
科學界的其他人表明AGI可能會不會發生。例如,Goertzel建議我們可能到2027年可能達到奇異性,而DeepMind的聯合創始人Shane Legg說他預計到2028年。馬斯克也建議AI比最聰明的人更聰明到2025年底。