在人工智能支持者的快速增長中,斯蒂芬·霍金(Stephen Hawking)警告說,人工智能最終將使人類過時。如果人類在發展中太激進,AIS可能弊大於利。
AIS的表現優於人類
這不是著名物理學家第一次警告AI啟示錄。他以前說過迅速前進的技術可能會為人類說明厄運從現在開始幾年。
去年10月,在劍橋大學的人工智能中心成立期間,霍金已經表達了他擔心AIS就像雙刃劍一樣 - 它們可能是最偉大的發明之一,但它們也可能是人類最糟糕的噩夢。儘管它的發展可以幫助技術進步,但他們也有可能消滅人性化 - 他一直在提醒所有人的預測。
霍金在最近的採訪中分享說,人工智能已經發揮了潛力的時候到了比人類更有效,使我們對他們無能為力。
“我擔心AI可能會完全取代人類,”說鷹。 “如果人們設計計算機病毒,就會有人設計改進和復制自身的人工智能。這將是一種超越人類的新生活形式。”
技術很好,但要謹慎
霍金承認,技術對人類具有少數好處。它可以幫助最終疾病和遏制貧困,但如果謹慎,也可能是致命的。
他還警告說,人類應該為可能的後果做準備。專家和利益相關者應意識到其潛在危險,並在其失控之前認識和管理它們。
SpaceX創始人兼首席執行官Elon Musk回應了Hawking的觀點。但是,馬斯克認為政府必須對AIS採取強烈立場通過制定法律來規範它。
微軟聯合創始人比爾·蓋茨(Bill Gates)在之前的採訪中似乎淡化了威脅。
“埃隆擔心的所謂控制問題並不是人們應該覺得即將到來的事情。”說大門。 “我們不應該為此感到恐慌。”
霍金強調每個人都需要沉浸在科學研究中。他解釋說,獲得有關AI發展的理論辯論是為了為未來做準備的必要條件。
“大家都有可能突破所接受或期望的事物的界限,並思考大事。”共享。 “這是一個令人興奮的(如果不穩定)的地方,而你是先驅。”