我们这个世界也许是虚拟的 可要是如此的话 虚拟出这么多不快乐的灵魂 是不是一种罪过呢


快乐和痛苦是对立统一的概念。

如果一个大脑感受不到快乐,他就不会感受到痛苦。

因为,它只会对痛苦习以为常。


刚好最近刷完了黑镜第四季,有好多东西可以分享一下。

第一集讲一个精通神经科学和计算机的天才编剧,用计算机创造了一个虚拟宇宙,通过采取同事的基因样本,把同事全都复制并编进了这个虚拟宇宙里,在他的宇宙里,只有他是王,所有人都只能听他摆布,永世不能逃出,而他只需摘下插在大脑上的介面便能重回到现实世界,开门去拿他的外卖。

第六集有些类似,讲一个神经科学家用一个脑机介面把一个临刑前的死刑犯的思想都拷贝下来,用计算机模拟出了一个虚拟的他。但这个科学家的动机不良,他开了一个博物馆,通过电击这个虚拟人让他产生痛苦,来换取门票收益,参观的人还络绎不绝。

实际上这就是你所说的道德问题,这个问题换种说法可以叫,一个被人类创造出来的有人类思想的产物,是否同样应被人类社会的道德所保护(也可以叫约束)。也就是说,抛开在外形、生理需求等层面的本质的差别,它是否该在认知层面上被当作一个人而不是一台机器来看待。其实仔细一想,这跟社会道德对我们的要求是一样的,我们讨论道德的领域永远都是认知,而无关外貌、出身等等认知以外的因素。因此,一个拥有完备的人类认知过程的大脑,理应被尊重。认知包含感知、记忆、思维等心理过程,还包含动机、情绪等成分,如果一个人造大脑可以有全部的这些功能,以至于跟人类大脑并无二致,我相信没有人会反对尊重这个大脑,尊重它所创造的一切产物,并用人类道德规范约束它。(题中所说的人造大脑的痛苦体验属于情绪,其实无论产生的是痛苦还是快乐体验,抑或是其他心理过程,都应在我们的讨论范围内)

换个角度想想,为什么今天会提出这个问题?几十年前,第一台计算机制造出来的时候,人们充其量也就把这种东西当作个机器,因为它只能执行单一的某个指令,遵照很简单的程序运行。而今天,一个人工智慧、人机交互这样的术语屡见不鲜的今天,人类已经在模拟语言上驾轻就熟,开始尝试模拟情绪情感,下一步会模拟什么?模拟人类思维方式?让机器人也有自己的需要,然后模拟动机过程?太可怕,不敢想。在技术层面,我相信人类未来真的有本事模拟一个大脑出来。这也就是我们讨论道德问题的原因。一方面,在计算机由只能执行单一程序发展到无穷类似大脑的这个过程中,一定应该伴随著对其道德约束的相应变化。另一方面,计算机发展到什么阶段就应该受到限制,其实是最应考虑的问题。

如果有一天高度模拟人类的机器人杀了人,是应该惩罚发明他的科学家,还是惩罚机器人,还是惩罚这个接受高度模拟机器人存在的社会呢?我的想法,正如黑镜的核心观点,错永远都不在科技,而在人。与其事后惩罚科学家,不如在科技到那一步之前去探讨伦理,该立法就立法。


首先,无快乐即无痛苦。

只有痛苦,不存在快乐,那痛苦也只会是麻木和无感受。

其次,就算我们世界是虚拟的,也无法否认这个世界是不存在free will的,也就是说痛苦和快乐大部分是人类自身的选择。有句古话说的好:庸人自扰

人生嘛,苦中作乐。

但灵魂不是虚拟的。我以前在哪看过一遍"路边"消息,灵魂在很早就有。(人类没来到地球就存在宇宙中。)我们的肉体等所有一切都是虚无的,只有灵魂是一直存在的。


我觉得大脑本身不觉得自己痛苦,因为他没有体会过什么是快乐就不知道痛苦多难受,痛苦如果是一种常态就不觉得痛苦了,这有什么罪过呢?


创造了生命不是罪过,生命被自己赋予痛苦,这是罪过


你玩暴力游戏的时候会有罪过吗?没有?对,那些制造了咱们这样虚拟世界的「人」也是同样的感受。


推荐阅读:
相关文章