技术进步为何会导致生存危机?绵羊c 2012-04-24 19:40:28

人类科技发展带来的危险,很可能会导致人类的灭亡,牛津大学人类未来研究院院长、哲学教授尼克·博斯特罗姆(Nick Bostrom)这样认为。本文中,博斯特罗姆谈到了未来几十年,甚至几百年里,人类可能碰到的,最有趣及最让人担忧的生存危机。

人类科技发展带来的危险,真的会导致人类的灭亡吗?

(文 / 罗斯·安德森)牛津大学人类未来研究院的院长、哲学教授,尼克·博斯特罗姆(Nick Bostrom)认为,人类科技发展带来的危险,很有可能会导致人类的灭亡。 在之前的讨论中 ,博斯特罗姆跟《大西洋月刊》的记者,罗斯·安德森(Ross Andersen)谈到了人类灭绝的风险,他认为,现今社会人们不仅对人类灭绝的风险知之甚少,更糟糕的是人们大大低估了这种风险。

尽管博斯特罗姆担心技术进步给人类带来的危险,但他并不是一个勒德分子(即反对工业化、自动化、数字化或一切新科技的人)。事实上,他本人一直以来都是 「超人主义」(transhumanism)的拥护者——主张通过技术手段,改善人类生存条件,甚至人类自身条件。

博斯特罗姆认为,从长远来看,技术就像一座桥梁,人类应当谨慎小心的通过这座桥,以到达更好更利于生存的彼岸。

为了避免人类毁于自己之手,一种可能的解决方法,就是放慢技术发展的速度,但您却批评了这种观点,认为如果发展先进技术的进程永久性受阻,这本身就可能成为另一种生存危机,能解释一下这是为什么吗?

博: 关于这个问题,我想再次说明一下 「生存危机」 的定义,这种危机并不仅仅指灭绝,还包括很多其他东西,比如永久性破坏人类创造美好未来的可能性。技术进步可以从根本上提高人类的生活质量,因此如果我们永久性地停止技术进步,就等于毁掉了更多美好未来的可能性,这本身就是一种 「生存灾难」。

我认为,我们人类能够过上比现在好得多的生活。从根本的生物性上来说,我们有许多局限性,因此在我们的人生中可以实现的事情很有限——我们的生命是有限的,我们的认知能力是有限的,我们的情绪特质决定了,即使在情势大好时,我们也不会完全的快乐。放眼今天这个世界,有很多悲剧、痛苦、贫困和疾病都是可以避免的,我认为这个世界可以更美好,无论是从超人主义的角度,还是从经济学的角度。如果永久性地放弃实现这些更美好生活方式的努力,绝对算得上是另一个 「生存危机」。

我不看重或者推崇,用放慢技术发展的方式,来缓解人类生存危机的另一个原因是,想要做到这一点非常难。有太多强大的力量推动著科学技术的发展,方方面面——经济压力,人类的好奇心,还有许多的机构和个人都投身于技术发展,所以要阻止技术进步太难了。

什么技术,或者未来可能出现的什么技术,是最让您担忧的呢?

博: 我可以举几个例子。从近期来讲,我觉得生物技术和合成生物学比较令人不安。我们正逐渐掌握设计和创造病原体的能力,各种致病生物的信息随处可见。现在你已经能从网上下载天花,或者 1918 年西班牙流感病毒的基因序列,但目前为止对普通人而言,你得到的也就只是电脑屏幕上的一串字元。可是如果我们的 DNA 合成仪越来越好用,输入网上下载的序列信息,你就可以得到真正的 RNA 或者 DNA 序列,那么不久之后这些仪器可能就强大到,可以直接制造出相应的病毒。这些病毒虽然危险,但至少还在可预知的范围内,如果接下来你能够改造这些生物体,就更不得了了,可以预见到,我们将面对一个全新的高科技的危险领域。

从长远来看,我认为人工智慧——一旦它们获得人类甚至超人的能力——将会给我们带来很大的危机;还有各种操控人类的手段也让我很担心,比如监视人民和一些控制人类心智的药物。

【编者注】更多合成生物学的讨论: 会让流感病毒通过空气传播的研究,该不该发表?

您的一篇文章中提到,专家们估算了本世纪人类灭绝的几率大约有 10% ~ 20%,我想肯定不止我一个人会有 「这个几率未免也太高了吧」 这种想法,是什么因素导致了这个高几率的产生?

博: 我想之所以估算出的数值如此之高,是因为人类正在发展出极为强大的能力——我们正在进行著前人从未做过的事情,也有一定的风险会出错。比如说核武器,如果仔细回想一下你会发现,制造核武器需要一些非常罕见的材料,如浓缩铀或者钚,这些东西非常难弄到。但如果当初发现了某些技术,使得你只要用微波炉加热沙子,或者其他类似的简单手段就能制造核武器,你能想像我们现在会是什么样吗?我估计这一发现刚刚问世,我们的整个文明就已经被毁掉了。

每次当我们有了新的发现,就好像从一个大瓮中拿出了一个新球——目前为止我们拿出的都是白色或者灰色的球,但也许下一次我们拿出的就是一个黑球,一个带来灾难的发现。我们迄今还没办法把已经拿出来的球放回去,不管我们多不喜欢这个球,正如一旦一个发现公诸于世,我们就没办法收回它。

其实就核武器而言,我们已经有好几次濒临险境。据说仅仅在这项技术面世的几十年内,我们就差点经历全面爆发的核战争,这还是在只有少数大国掌握此项技术、需要动用很多资源予以调控、平民无法掌握核武器的情况下。

牛津大学人类未来研究院院长、哲学教授尼克·博斯特罗姆(Nick Bostrom)认为,从近期来讲,生物技术和合成生物学比较令人不安,从长远来看,人工智慧,还有各种操控人类的手段,比如监视人民和一些控制人类心智的药物,也令人担心。

可以解释一下 「模拟理论」,以及这个理论如何对一种生存危机进行诠释的吗?

博: 「模拟理论」 提出:我们到底是生存于一个模拟出的 「现实」 之中,还是一个真实的现实之中? 这个理论的目的是证明,它的 3 个命题中,至少有一个是正确的,但我们不知道是哪一个。3 个命题如下:

  1. 几乎所有与我们相似的文明,都会在技术完全成熟之前灭绝。
  2. 几乎所有技术完全成熟的文明,都没兴趣进行 「先祖模拟」(模拟祖先生存环境的模拟世界):这种电脑模拟技术已经足够成熟,使得模拟出的人物具有自己的意识。
  3. 几乎可以肯定,我们正处在一个电脑模拟的世界之中。

完整的理论需要严密的概率推算,但这个理论的基本概念不用牵扯到数学也可以解释清楚。假设命题 1 是假的,也就是说,有很多处在我们这个发展阶段的文明,最后都可以达到技术上的完全成熟。若假设命题 2 也是假的,即在达到技术成熟的文明中,有很多都有兴趣投入大量资源,建造一些 「先祖模拟」,就可以认为,这些技术成熟的文明,有可能建造数量庞大的模拟世界。所以,如果有许多文明都决定用自己的能力,建立这些 「先祖模拟」 世界,那么模拟出的多个世界,就会比真正的历史所包含的东西多得多,这意味著几乎所有有著类似于我们经历的观察者,都生活在模拟世界中。回到前面所说的 「观察选择效应」,我们应该认为,我们正生活在一个模拟世界中,我们是典型的观察者之一,而不是独一无二的真实世界中的那些观察者。

这一理论与生存危机的关系有两层。首先,上述 3 个命题中的第一个,即几乎所有跟我们类似的文明在达到技术成熟前都会灭亡,直接明显地指出了我们面临著多大的生存危机。如果命题 1 是真的,那么很容易推论出,我们在达到技术成熟前就会因灾难而灭亡。另一个与生存危机相关的是命题 3 :如果我们生活在一个电脑模拟的世界中,那么就可能出现一些在真实世界中不必担心的外部灾难,比如说,这个模拟系统可能会被关闭,或者维持我们这个模拟世界的真实世界中发生其他干扰。

我们现在说到的情况,都是在假设某个技术成熟的文明,有兴趣建立这些模拟世界的前提下。你刚刚说,这些文明可能会 「失去兴趣」 ,似乎也暗指他们一开始可能是有兴趣的。

博: 目前来看,确实有很多人对建立模拟世界很感兴趣,尽管原因多种多样——可能是为了某些科学研究,或者是为了娱乐,为了艺术。已经有很多人在电脑游戏中创建了虚拟的世界,这些世界建造的越逼真,建造者们就越高兴,人们可以在这些世界中来场视觉上的历史巡游,甚至人们建造这些世界的原因,只是因为他们能够做到。所以,我想对于今天的人们来说,如果他们有这种能力,他们应该会去建立模拟世界的。同理,成熟文明的人也有可能有兴趣这么做;当然,也不排除当技术完全成熟之后,那些文明中的人们就会因种种原因失去这种兴趣。

在访谈的最后,博斯特罗姆将谈及如何通过哲学和数学工具(尤其是概率论),来应对危机,延续种族。

人类灭绝,被低估的风险

  • 系列一: 人类灭绝,比想像中容易得多
  • 系列三: 如何延续种族,应对危机?
  • 文章来源: We"re Underestimating the Risk of Human Extinction
    原文信息: 原文刊于《大西洋月刊》网站科技频道 2012 年 3 月 6 日作者罗斯·安德森(Ross Andersen)
    文章题图: io9.com
    内文图片: Shutterstock.com

    推荐阅读:

    查看原文 >>
    相关文章