斯蒂芬·霍金(Stephen Hawking)表示,人类可能会清除自己的警告,警告说,在接下来的几千年中,地球上发生灾难的可能性很大,而这些危险是我们自己造成的。
霍金(Hawking)将于1月26日播出的第一次BBC Reith演讲中指出,核战争,基因工程病毒和全球变暖可能会增加行星灾难的几率。
全球暖化与极端天气事件和海平面上升有关,这可能使地球的某些地区在未来居住。另一方面,基因工程的病毒和核战争可能会消灭人群。
著名的天体物理学家还对过去人工智能的未来发出了严峻的警告。霍金(Hawking)担心人工智能的进步可能导致这些机器反对人类,这是其他杰出人物所分享的,其中包括SpaceX创始人Elon Musk。
如果人们对那些对人工智能的关注的人的恐惧成为现实,那么终结者般的时代可能会发生。人工智能和自主武器(例如武装四轮武器)可以消除具有某些预定义标准的人,如果他们陷入困境,这些武器可能会造成重大灾难。
霍金说,尽管科学和技术改善了许多生活,但在这一领域的进步是一场赌博,因为它也引入了一种可以结束人类的手段。
然而,科学家对人类的未来保持乐观。霍金说,人类可能会在接下来的1,000至10,000之内降落地球的灾难中幸存下来,因为到了这个时候,他们可能已经殖民了其他世界。
他指出,尽管人类将在未来百年中无法在太空中建立自我维持的殖民地,因此在此期间要小心是经验的。他说,我们需要将精力集中在太空探索上,并可能在太阳系之外传播。
“到那时,我们应该分散到太空中,以及其他恒星,所以地球上的灾难并不意味着人类的终结,”霍金说。 “我们不会停止取得进步或扭转进步,因此我们必须认识到危险并控制它们。我是一个乐观主义者,我相信我们可以。”