你的位置: iPc 首页 > 全部文章 > 杂乱无章 > 阅读文章
科学X网    Office    苹果中国    微软中国    VPS

人类的自毁方式 - 明天不会是世界末日,人类是自己把自己玩儿死的~

20
十二月

世界末日?首先这和玛雅人,长计历什么的没有关系。说到人类文明毁灭,我们从来就不缺来自自然界的威胁,包括小行星撞击和超级火山爆发——但是在人类自己都能把自己玩儿死的情况下,谁还需要自然灾害啊……

9种人类自毁的方式

1、世界末日核大战(Nuclear Armageddon)

冷战很早以前就结束了,但是核的阴影仍然笼罩在人类头上。实际上,最坏的还在后头呢。关于核武器,最恐怖的并不是它巨大的威力,而是制造核武器的技术。更多的国家掌握制造核武器的技术只是个时间的问题(伊朗和朝鲜就是现在最好的例子),而最大的威胁在于,处于信息时代的我们要想得到制造核弹的技术比过去容易了很多,不仅是作为政府的主体,甚至是个人也有可能得到。

世界末日核大战(Nuclear Armageddon)

从理论走向实际,最困难的可能是搞到浓缩铀——毕竟说起来容易做起来难。但是一旦分子自组装的纳米时代到来,浓缩铀的获得可能就和用微波炉加热食物一样简单。

有了之前的内容作为基础,现在我们可以讨论需要多少颗核弹才能毁掉整个人类文明。有模型显示,100颗15千吨级的核弹就能让地球进入“核冬”。核弹的初爆破和随之而来的辐射,根据目标位置的不同,可导致300万至1600万人的死亡。而之后的“核冬”,幸存下来的人类会经历至少10年的大饥荒,光饥荒这一项就能导致几十亿人口的死亡——这时候不管剩下多少人,人类文明的辉煌都已经是过去的事了。

2、全球性生态吞噬(Global Ecophagy)

被亲切地称为“灰色粘质”(Grey Goo)的设想,第一次出现在大众的视野里是在1986年未来学家埃里克·德雷克斯勒(Erci Drexler)的书《造物引擎》(Engines of Creation)中出现的(点我有中文译本《创造的发动机》)。“灰色粘质”的概念就是,或许是意外,或许是蓄意作为,一种能够自我复制的纳米级机器人将会把接触到的一切物质都转换成“自己”,不断的繁殖最终让地球表面只有这种粘质存在。

全球性生态吞噬(Global Ecophagy)

自从这本书出版之后,很多科学家也发出了类似的警告,称这种假设在技术上是完全可行的。科学家 Robert Freitas 就曾预测,包括整个大气层在内的地球会在20个月的时间内被彻底消灭。

为了防止上述可能性成真,Drexler 和 Freitas 建议我们应该开发一种“活性盾”,同时强化监控技术。总之,得到广泛赞同的意见是,将纳米技术武器化,能够渗透那些人们通常认为最坚固的地方。

3、人人上传,无人清醒(Everybody uploads – but no one is conscious)

人人上传,无人清醒(Everybody uploads - but no one is conscious)

在未来我们会发展人工普智能,这几乎已经是人人都确定的了。不过在未来我们是否会发展“人工意识”,这就不确定了。神经科学家和认知科学家到目前为止都未能得到一个能够解释人类“知觉”的理论,所以 AI 可能不会发展成我们在电影中看到的那个程度。不过如果意识是一种,有复杂结构物质的涌现性特征——也就是哲学家口中的“泛心论(panpsychism)”——那么这就有了可能。如果这个理论是正确的,那么我们永远不可能用一串0和1来编写“意识”;同理,意识上传这种行为也就无异于自杀——而它导致的最终结果是:你将意识上传至一台 AI 里,届时将会出现另一个“你”;不过按照泛心论的理论,万物皆有意识,那么那台 AI 实际上不是你,而真正的“你”在完成上传之后,基本上就已经不存在了。在现在的理论基础上,要查证意识是否存在是一件很困难的事,将意识上传是对现有伦理道德的一种突破。

在众多提到意识上传的科幻作品中都曾说到,意识上传是一个未来重要的生命延续概念。可能在技术允许的情况下,仍然不会出现“人人都上传”的景象,不过想象一下如果人人皆上传,而“意识”的概念与真谛和我们所想象的并不相同(比如并不能在另一个载体上得到延续),那么所出现的情况可能会很有趣。

4、机器人启示录(Robopocalypse)

机器人启示录(Robopocalypse)

也就是终结者式的末日——某个超级先进的人工智能或是不怀好意的人类让其它的机器人与人类反目,成敌对态势,并且此形势最后发展成了全球性的。对此最完美的诠释就是2013年斯皮尔伯格的新片《机器人启示录》了。在电影中,面对有超强学习能力和适应性的机器人,人类变成了弱势群体。猎人,杀手机器人变成了为人类行刑的刽子手;机器人蝗虫吃掉了所有的农作物,造成大饥荒。机器人能够自发地组织群体行为,自我修复,并且最可怕的是,因为它们是机器,所以不会感到内疚,或者恐惧。在达成目标前,除了死亡,没有任何事能阻止它们。

5、超级人工智能(Artificial Superintelligence)

 

5,超级人工智能(Artificial Superintelligence)

 

这点与机器人的逆袭有些相似。有一天,某个超级人工智能可能会超过人类的能力和智力。从人类的角度看,人工智能的智力提升速度是十分惊人的,超过了临界点,就会出现赛博朋克作家弗诺·文奇大叔所说的“强制接管”(“Hard Takeoff”)事件。在文奇笔下的作品中,强制接管后的超级人工智能会利用公共设施来满足自己的一切需求,人类将不得不让出对公共设施的控制权。当然,被接管的还有自然资源,工厂,防御工事,机器人以及,互联网。这些对人类来说无异于灭顶之灾。

6、粒子加速器事故(Particle accelerator accident)

粒子加速器事故(Particle accelerator accident)

这种事故发生的几率十分小,不过这种小小的几率仍然存在——地球在某次高能粒子碰撞实验事故中被毁了。当年大型强子对撞机刚被建成时,就有很多媒体表达了这个忧虑——撞击实验会制造出小型黑洞吞噬地球,或者产生理论中的“奇异夸克团”(strangelet),它会将地球转变为一小团集中的“奇异物质”。幸运的是,这两种可能性在物理学角度上说是不太可能发生的。另外,根据 Tegmark 和 Nick Bostrom 的测算,如果真要发生,那么发生的概率应该是“每十亿年一次”左右。

7、人为策划的流行病(Deliberately engineered pandemic)

人为策划的流行病(Deliberately engineered pandemic)

回到2005年,Ray Kurzweil 和 Bill Joy 在《纽约时报》上发表了一篇社论警告称敏感科学信息正被暴露在普罗大众面前,并有可能被投机分子利用。这篇社论是对2005年美国卫生部和人类服务部决定在基因银行(GenBank)线上数据库上发表1918年西班牙流感完整基因组信息的回应。“这种做法太愚蠢了,”他们写道,“[西班牙流感的]基因组从本质上来说是种自然界的武器,曾造成了大规模的破坏。我想没有哪一个负责的科学家会主张将原子弹的精确设计公开发表吧,而揭露病毒基因序列的做法更是危险。”

不过他们的警告在当时被完全忽略了。

今年5月,《自然》杂志刊登了一项实验,实验内容是“如何将禽流感病毒修改成能在人类中传播的形式”。如果你感兴趣的话,所有的实验信息,任何细节都可以在《自然》上的这篇文章里被找到。这是一个正在扩大的威胁。信息时代的来临和生物科技革命几乎是同时发生的——这样的敏感科研信息被人(或者国家,团队,组织)利用,不管是有心还是无意,制造成了超级病毒,这也只是个时间问题。到那个时候,我们可能根本找不到解药,病原体会有超强毒性,并且100%致命。

8、人为全球变暖(Anthropogenic global warming)

人为全球变暖(Anthropogenic global warming)

各个版本的世界末日中基本都含有不可挽回的巨大自然灾难。实际上,灾难可能是由人类自己引起的。如果碳排放仍然以今天的速度上升,我们最终将能够在地表和充满二氧化碳的大气层间制造一个正反馈循环(positive feedback loop)。该效应会导致大气层内温度急剧上升,海水大量蒸发。并且,不论戈尔宣称的全球变暖到底是不是骗局,北极地区的苔原和冻土层确实在融化,缘故的生物量也确实会排放大量二氧化碳。另外,海水酸化也会导致下游生态灾难,比如大规模生物灭绝,而这些最终都会影响到人类。很多人出于不同的原因都拒绝承认全球变暖的发生,不过威胁是存在的。

9、第三次世界大战(World War III)

9,第三次世界大战(World War III)

在第二次世界大战结束时,世界人口少了将近2.5%。超过7,000万人被杀,2,000万人死于饥饿。最让人心碎的是,平民在死亡人数中占了将近一半——再一次启示人们,战争不仅仅是国家和军人的。

自从二战后,科技的迅速发展是大家有目共睹的,这也为假设下一次全球性“传统战争”——指没有核武器的战争——的发生提供了基础,而这次战争如果发生,将是天启性的。上面所提到的技术都可能被运用到战争中来,自动化杀人机器,军事中的纳米科技等。一些好战,或者积怨已久的国家可能会使出生化武器,生化武器会导致不计其数的人的死亡。并且正如二战一样,食物也能被用作武器,因为战争期间农作物产量会大幅下降。

幸运的是,虽然没有被保证,但是我们离这场战争还很远。上个世纪的两次大战可能是一次异常,而第二次世界大战让人类对核战都产生了阴影。

关于本文
各种回音
  1. 说: 回复他/她

    最后一个恐怕是最可能发生的

  2. 说: 回复他/她

    shafa沙发

  3. 说: 回复他/她

    我的头像呢

  4. 说: 回复他/她

    奖金

  5. 说: 回复他/她

    第三次世界大战最有可能,所以世界末日不必担心,人类自我毁灭的方法可使很多的,同时也很可怕。

  6. 说: 回复他/她

    世界人口少了奖金将近2.5%
    错别字太明显了- –

  7. 说: 回复他/她

    说起来之前看过一个BBC做的世界末日纪录片……感觉挺受教的

  8. 说: 回复他/她

    猩×猩×打×飞×机

  9. 说: 回复他/她

    都是人,自己作孽,早晚玩完!

微博评论箱