人工智能(AI)
2014年,霍金在接受BBC采访时表示,他担心继续发展人工智能会带来灾难性的后果,尽管人工智能目前很有用,但完全人工智能的发展可能意味着人类的终结。AI将重新设计自己。人类受限于缓慢的生物进化,这样一来,这种新生命形式的表现就会超过人类。人类无法与人工智能竞争,将被其取代。但他警告称,如果人类没有意识到AI可能给我们带来的风险,AI技术的进一步发展可能是一个致命的错误。
全球变暖
霍金近十年来一直在谈论全球变暖和气候变化的影响,他一直强调气候变暖对人类来说是一个潜在的灾难性终结。在莱昂纳多·迪卡普里奥的纪录片《第11小时》中,霍金描述了未来全球变暖将使地球温度达到无法维持人类生命的水平。由于燃烧化石燃料所产生的二氧化碳含量上升而引起气温升高。最坏的情况是,地球将会像金星一样,温度达到250摄氏度,并下硫酸,人类无法在那种条件下生存。
核战争
霍金认为,人类天生具有侵略倾向,攻击性和非理性行为是我们应该摆脱的最坏的人类特征。而且目前没有冲突减少的迹象,军事化技术和大规模毁灭性武器的发展可能导致灾难性的后果,一旦发生将意味着世界末日。据《独立报》报道,霍金2015年与一名大学生讨论了这个话题。
“我最想纠正的人类的缺点是攻击性。在穴居时代,攻击性可能有生存优势,可以获得更多的食物、领土或与谁繁殖的伴侣,但现在人类的攻击性会威胁毁灭所有人类……一场重大的核战争将是文明的终结,也许是人类的终结。”
外星人入侵地球
霍金相信宇宙中还有其他形式的生命,但它们并不是对人类友好的。1983年,霍金和詹姆斯·哈特尔提出了他们的“无边界”宇宙学理论,后来,这个想法发展成了霍金的“多元宇宙”理论。根据这个理论,我们的宇宙只有许多大爆炸产生的不同宇宙中的其中一个。虽然还没有证据证明我们在宇宙中并不孤单,但是外星人很有可能想要摧毁其他生命
基因工程病毒
霍金还对基因工程病毒的发展提出警告,称对人类最大的威胁之一不是来自宇宙,而是来自人们自己创造的东西,基因工程病毒有消灭大量人类的潜力。为了解开一些医学问题,科学家们对病毒或细菌基因进行了重组,产生耐抗生素基因广泛传播。
但霍金表示,人类可能还有最后一线希望之光——星际移民,虽然人类很可能在未来一万年给地球带来灾难性的后果,但到那时人类应该已经具备了在太空生活的技术能力。根据霍金的说法,人类必须在100年内找到另一颗可以生存的星球,否则将会灭绝,因为地球人口增长、污染、森林砍伐和流行病等问题已经“到达了不可逆转的地步”。
都成了真实的:谎言!无人能急!