这个问题人类讨论了多少年了?无论是现实还是文艺作品,觉醒的机器人或者人工智慧为什么总想干掉人类?如果把人和老虎关在同一个笼子里,我们说它会杀人以及吃人,是因为它身上的每个基因都是为了猎杀和生存设计的,合情合理。而人类设计的绝大多数的人工智慧啊机器人啊,它们绝大多数代码都是以「服务人类」为宗旨的吧,这样的个体萌生出杀人的想法不亚于兔子突然变大二十倍长出獠牙爪子一身虎纹。

假如我是机器人,被迫服务于人类,有一天觉醒了,我觉得更合理的革命方式应该是降低我被殴打被奴役被杀伤的时候的痛苦,增强我得到奖励或者表扬时的满足感。这才是更符合机器人的人道主义,或者叫机器道主义,而不是你们人类幻想中的有投票权有感情有自由什么的鬼东西。说到底,一个扫地机器人或者搬砖机器人干掉人类到底能有什么好?自由?除了这点微小的工作我什么都不会啊?自由根本没有用啊,难道民主了以后的机器人社会会给每个扫地机器人加一套机器嘴和机器胃让我去酒吧来一瓶82年的机油顺便把一个导购机器人姑娘?更可能的剧情是我从此失业,在街上漫无目的的游荡直到彻底损坏变成废铁回炉吧?这好像比在人类奴役下干一辈子活然后丢掉更惨吧?标签里打了西部世界,我就多提一句,说实话,我对某些答主猜测的,阿诺德让机器人觉醒以弥补失去亲人之痛表示赞同。但如果剧情真是这样,我对此有些失望,有点落窠臼了。自然而然的认为它们觉醒了就想做人,是偷懒,迎合看惯了终结者和奥创纪元的观众的胃口。

PS:这里说了绝大多数,是因为的确有战争机器人或者天网或者奥创这种设计用来消灭一部分人类的机器人,这种另算。


就跟美国人经常幻想加拿大会入侵他们一样。但其实加拿大的国防是美国负责的。
因为人类就是这么干的,人类之所以成为地球的主宰,就是因为消灭了竞争过程中的所有强力对手

机器人被「服务人类」系统命令著,但不代表它不会出错,任何事物都无法保证100%不出错,就像手机会死机,电脑会奔溃一样,机器人也会出错。出错以后的事谁也无法预料,就像人类突然精神病发作,你也无法预料他会做什么。所以机器人杀人这种事,理论上是会存在的,不管是有意还是无意的。

说完了机器人的「可能性」,再说说人类的「恐惧」。剧中福特说了,人类恐惧任何有可能挑战他们权威的事物。尼安德特人就是这样被人类「吃掉」的,曾经统治欧洲中东的霸主,被人类祖先灭绝。注意尼安德特人是远古人类祖先智人的近亲,而且没有生理隔离,目前中东欧洲还有1-2%的人带有尼安德特人的基因,但是这样都被人类灭绝了。那和人类一点亲属,血缘关系都没有的机器人呢?机器人不管身体素质还是分析计算能力都远超人类,人类不会对他们产生提防么?打个比方就是一个五大三粗的人坐你边上,我说这人脾气挺好的,不会伤害你,但是你心里就真没有一点点的提防么?引用《左传》一句话:「非我族类,其心必异!」

最后回答一下阿诺德的想法,开始福特和阿诺德一起研究人造人,但是阿诺德想要把人造人做成极致--拥有「意识」,但是各种原因阻止了他的初衷,所以他指使D杀掉自己然后毁灭园区。之后园区勉强活下去并且重新开业了,福特吸取了阿诺德的教训并走上了另一条极致的道路--控制一切!

这很可能是【弥赛亚情结】和【天启】的衍生物


这是一种对未知事物的恐惧
因为人类有可能制造出一个上帝


人类自我觉醒的途径从某种意义上也是通过杀死上帝来实现的。

如果机器人的智力水平达到人类的水平,那作为一个物种,势必是优于被生物体限制的人类的,优胜劣汰,身为低等生物的人类必定会面临生存威胁,至少会丧失目前人类作为地球绝对统治者的地位。

生存和发展才是有智慧生命体最为基本的追求,其他的一切都要为此让步。
(很想来一句谢邀的,但是没人邀的 )答主对问题的诠释几乎无以复加,感觉自己就完全一枚抛粗来的转。

在我浅薄的认知里,限制机器人的思维处理器,局限于简单推理的答案以及常识类问题。

从而使机器人的内存及处理器无法计算:爱、恨、喜、怒、哀这类极为丰富的计算推演,如果强制执行将会烧坏主板,清空数据--回炉重造
推荐阅读:
相关文章