「惡夢場景」:人工智慧教父退出谷歌,警告人工智慧的危險
“據我所知,目前他們並不比我們聰明。但我認為他們很快就會變得比我們聰明。”
由於擔心人工智慧的發展方向,一位經常被稱為人工智慧(AI)「教父」的人本週辭去了谷歌的工作。
Geoffrey Hinton 因其在深度學習和神經網路方面的工作而聞名,並因此獲得了 2019 年價值 100 萬美元的圖靈獎。加拿大廣播公司他很高興能夠獲勝,因為“很長一段時間以來,神經網路在計算機科學中被認為是不穩定的。這是一種接受,它實際上並不穩定。”
此後,隨著 Chat-GPT 和 AI 影像生成器等 AI 程式的興起,,該方法已成為主流。 Hinton 於 2013 年在這家科技巨頭收購了他的公司後開始在谷歌工作,現在他認為這項技術可能對社會構成危險,並退出了公司,以便能夠公開談論它。紐約時報報告。
短期內,Hinton 擔心人工智慧生成的文字、圖像和影片可能導致人們無法“知道什麼是真實的”,以及對就業市場的潛在幹擾。從長遠來看,他對人工智慧超越人類智慧和人工智慧學習的擔憂更大。
「據我所知,目前他們並不比我們聰明,」他告訴記者。英國廣播公司。 “但我認為他們很快就會成為現實。”
75 歲的 Hinton 告訴 BBC,人工智慧目前在推理方面落後於人類,儘管它已經可以進行「簡單」推理。然而,就常識而言,他認為它已經遠遠領先人類。
「所有這些副本都可以單獨學習,但可以立即分享他們的知識,」他告訴英國廣播公司。 “所以就好像你有 10,000 個人,每當一個人學到一些東西時,每個人都會自動知道它。”
他告訴《紐約時報》,一個擔憂是「壞人」可能會利用人工智慧來達到自己的邪惡目的。與核武等威脅需要基礎設施和受監控的物質(如鈾)不同,這類參與者的人工智慧研究將更難以監控。
「這只是一種最壞的情況,一種噩夢,」他告訴英國廣播公司。 “你可以想像,例如,像普丁這樣的壞人決定賦予機器人創造自己的子目標的能力。”
諸如「我需要獲得更多權力」之類的子目標可能會導致我們尚未想像到的問題,更不用說考慮如何處理了。正如專注於人工智慧的哲學家、牛津大學人類未來研究所負責人尼克·博斯特羅姆(Nick Bostrom) 在2014 年所解釋的那樣,即使是一條簡單的指令,也可以最大限度地提高人工智能的數量。世界上的任何事情可能會導致意想不到的子目標,這可能會為人工智慧的創造者帶來可怕的後果。
「人工智慧很快就會意識到,如果沒有人類,情況會好得多,因為人類可能會決定將其關閉,」他解釋道。赫芬頓郵報2014年。
Hinton 告訴 BBC,他的年齡是他決定退休的一個因素,他認為人工智慧的潛在優勢是巨大的,但這項技術需要監管,特別是考慮到該領域目前的進展速度。儘管他離開是為了談論人工智慧的潛在陷阱,但他相信谷歌迄今為止在該領域的行為是負責任的。隨著全球競相開發這項技術,如果不加監管,很可能並不是每個開發該技術的人都會受到監管,而人類將不得不應對其後果。