斯蒂芬·霍金(Stephen Hawking)表示,人類可能會清除自己的警告,警告說,在接下來的幾千年中,地球上發生災難的可能性很大,而這些危險是我們自己造成的。
霍金(Hawking)將於1月26日播出的第一次BBC Reith演講中指出,核戰爭,基因工程病毒和全球變暖可能會增加行星災難的機率。
全球暖化與極端天氣事件和海平面上升有關,這可能使地球的某些地區在未來居住。另一方面,基因工程的病毒和核戰爭可能會消滅人群。
著名的天體物理學家還對過去人工智能的未來發出了嚴峻的警告。霍金(Hawking)擔心人工智能的進步可能導致這些機器反對人類,這是其他傑出人物所分享的,其中包括SpaceX創始人Elon Musk。
如果人們對那些對人工智能的關注的人的恐懼成為現實,那麼終結者般的時代可能會發生。人工智能和自主武器(例如武裝四輪武器)可以消除具有某些預定義標準的人,如果他們陷入困境,這些武器可能會造成重大災難。
霍金說,儘管科學和技術改善了許多生活,但在這一領域的進步是一場賭博,因為它也引入了一種可以結束人類的手段。
然而,科學家對人類的未來保持樂觀。霍金說,人類可能會在接下來的1,000至10,000之內降落地球的災難中倖存下來,因為到了這個時候,他們可能已經殖民了其他世界。
他指出,儘管人類將在未來百年中無法在太空中建立自我維持的殖民地,因此在此期間要小心是經驗的。他說,我們需要將精力集中在太空探索上,並可能在太陽系之外傳播。
“到那時,我們應該分散到太空中,以及其他恆星,所以地球上的災難並不意味著人類的終結,”霍金說。 “我們不會停止取得進步或扭轉進步,因此我們必須認識到危險並控制它們。我是一個樂觀主義者,我相信我們可以。”