世界上最著名的物理學家之一關心地球上生活的安全,他敦促人類採取必要的預防措施。
接下來的100年對地球的居民可能是最危險的
斯蒂芬·霍金(Stephen Hawking)早些時候表示,接下來的100年對我們的星球可能是最危險的,現在告訴每個人,他擔心核戰爭,全球變暖和基因工程病毒等,以及其他,姿勢對人類的潛在威脅。
這位科學家對2117年之前離開地球的呼籲更加堅定。霍金實際上是在製作了電視節目,他通過該節目研究了人類如何離開地球生存。
鷹派出現在BBC紀錄片“ Expedition New Earth”中
霍金正在製作的BBC紀錄片探險新地球,回歸電視節目的一部分明天的世界,在上個世紀,它的受歡迎程度很大。
自從未來的凝視系列被取消38年後,未來的凝視系列被取消了14年。英國廣播公司(BBC)和參與該計劃的科學家承諾,新季節會更好。
對於紀錄片而言,科學家以及他的前學生剋里斯托夫·加爾法德(Christophe Galfard)將環遊世界,以尋找人類開始為生活在外太空生活的準備方式。
其他世界的殖民地
據報導,霍金聲稱人類需要殖民在接下來的100年中,另一個星球。這位科學家早些時候說,如果人類能夠在其他世界上建立殖民地,儘管他以前對此事的信念是,他認為人類在未來100年中不可能在太空中創造自我維持的殖民地,但他以前可以生存。
他說:“儘管在給定的一年中發生地球災難的機會可能很低,但隨著時間的流逝,它加起來,並且在接下來的一千萬年或一千年中變得幾乎確定了。”說。 “到那時,我們應該分散到太空中,並向其他恆星分散,因此地球上的災難並不意味著人類的終結。”
對人工智能的關注
霍金早些時候分享了他認為的危險人工智慧,因為AI可能會變得足夠強大,可以導致人類的滅絕。
他說,儘管人工智能可能有助於消除疾病和貧困,並為氣候變化做些事情,但它也可能導致創造一系列有害和潛在的危險事物和事件,例如自主武器,諸如自己的遺囑和經濟顛覆的機器,對人類競賽有害。
“我相信生物大腦可以實現的目標與計算機可以實現的目標之間沒有深層的區別。因此,從理論上講,計算機可以模仿人類的智能並超越它。”說。 “簡而言之,強大的AI的興起將是有史以來最好的,或者是最糟糕的事情。我們還不知道哪個。”