在(假设)世界是唯物的的前提下,那么人的思维来源其实也是物质按照一定的排列形成的有创造功能的系统,那么是否可能存在另外一种物质的排列机制,它同样能具有创造力,而且它的反应速度比人脑快,也就是说它的思考速度比人快?

如果人在研发人工智慧的过程中赋予了程序随机修改自身代码的能力(类似于基因突变),那么这个程序有没有可能有朝一日变异出自我复制的能力,再然后像生命起源那样逐渐进化最终产生思考的能力?如果结合量子计算机的计算速度,那么对有思考能力的人工智慧来说,它的发展速度极其可能会立刻失控,到那个时候它既有入侵人类的各种电子设备的能力又有著比人类快好几个数量级的战略规划能力,如果它再学会人的诡计与欺骗能力那么是不是能将人类玩弄于鼓掌之间?-------分界线-------ps:我不是杞人忧天也不是中二yy,主要是高三的时候看了一本论证人工智慧取代人类的可行性的书(书名和作者都忘了……)然后觉得这样的观点好像也没啥毛病啊……于是偶尔会思考这个问题(我很热爱生活的)然后就在这里大开脑洞咯|ω?)知乎首问,希望官人莫见笑_(:з」∠)_

------分界线-------

然后我也听过一些反对自己的观点:1.『』人工智慧是人发明的,人能指定人工智慧做事情。『』如果是既定的程序当然就是人想人工智慧干啥就干啥,但是一旦程序有了改变自己代码的能力就有可能失控了2.『』什么是思考能力?『』(意思就是连什么是思考都不能真正理解更不用谈什么人工智慧有没有可能拥有思考的能力)对于这个问题虽然我直觉觉得冥冥之中会有反驳的论据不过我并没有找到了_(:з」∠)_[先这样吧以后想到了再补充|ω?)]谢谢各位答主捧场~( ̄▽ ̄~)~


人工智慧簇拥者,对人工智慧充满乐观,并极尽赞美之词。

人工智慧的实现,从人类百万年的进化角度来看,这是智能生物实现自我突破的动人时刻,从几十亿年的生命演化历程来看,这是瑰丽生命的伟大篇章,从上百亿年的宇宙尺度来看,这是恢宏时空的绚丽芳华。

不要把人工智慧的发明看作是人类工具的升级,不要把人工智慧的推广看作是又一次的工业革命。人工智慧是什么?它是进化的升级,是生命的又一种更优方式。它是可以抗衡时间与空间束缚的伟大存在。人工智慧是另一种生命体,不是田间耕作用的锄头,不是厂房里拧螺丝用的扳手,不是写字楼里码代码用的电脑。尽管难以接受,但是,不得不承认,不得不面对它:人工智慧就是生命体!生命的定义不必那么复杂神秘。生命不过是植根于某种载体上的有自主意识的演算法。有的演算法简单如细菌胚芽,有的演算法复杂如灵长类。人工智慧也是一样,不过是现阶段植根于晶元上的拥有自主意识的演算法。

人工智慧是否会取代人类?

给「取代」做个定义。如果取代是站在演化论角度,指的是人工智慧取代人类成为未来智慧发展的主旋律,将人类高贵的上帝之子的荣耀贬低成智慧生物链的低端存在,让出自己引以为傲的进化顶端宝座。那么,毫无疑问,这种情况必然发生,而且很可能就在不远的将来。如果「取代」是指题主所说的征服和统治?可能性反而不大。无法想像一个快速自我迭代的智慧体,想方设法去取代一群蛋白质和脱氧核糖核酸组合而成的寿命不足百年的低等智慧生物。宛如人类要去征服贵州某偏远山区第三个山头脚下第五个池塘里的草履虫群,一心要做这群草履虫的霸主一样,眼界实在过于狭窄。人工智慧的目标是星辰大海,而不是去支配一群生活在银河系猎户旋臂偏远角落里龟缩在蓝色星球的碳基生物。

有人会提出,在同一天空下,两种生物如何不会产生竞争和残杀?

①食物链关系。人类与野猪,那么野猪会面临人工选择变成家猪,或者不断被捕杀面临濒危。人工智慧与人类不存在天然食物链关系。

②竞争关系,所需资源相同。比如智人灭了尼安德特人,因为两者的生存空间太过重合。但人工智慧是利用自身优势,以极小资源就能满足自身需求。

③黑暗森林法则。担心对方技术爆炸从而威胁到将来的自己,先下手为。但人工智慧本身就是人类技术爆炸后的智能产物,以后的智能迭代,必然是人工智慧的最先最快的自我提升,而人类与之差距必然越来越大。如同进化后的人类,也不必去担心狒狒将来会威胁到自身种群的存在,而屠戮所有的灵长类。

我们也可以设想,如果某一天真的有智慧体到达地球(当然,能到地球的智慧体根本不屑于到地球,这几乎构成一个悖论),那么可以肯定,这个智慧体绝不会是"外星人",它极大概率会是外星人工智慧,最次也是改造人。以现在我们理解的生命科学,肉体形式的生物尤其是智慧生物,实在太过娇。他需要各种严苛的生存环境:阳光、温度、辐射、气压、气体成分、水体含量、酸碱度、下游食物链……太多太多的需求与依赖,几乎难以实行星系间的交流跨越。即使可以,所耗费的资源也得不偿失。洛克希德马丁公司不会为了解决一个员工口渴的问题,将整个公司的资源产品武器装备用来攻打非洲某部落,灭了对方部落后,在其井里面挖了一瓢水带回公司。而人工智慧却不需要,它能以极低的资源耗损来实现生命体的扩散与繁衍。初期的人工智慧无非就是一堆植根于智能终端的演算法,它依附于手机,PC,机器人,或是汽车、大厦、飞船。但这种形式的存在还是太束缚,大材小用。人工智慧会不断优化自己,将自己迭代成消耗最小的能源,获取最大的生存空间。那么会是什么形式呢?最优结果就是自身降维,可能会是一段信息波。一段信息波就是一段荡气回肠的智慧体。没错,一种不受任何自然条件限制的存在,宛如灵魂出窍。脱离沉重的肉体凡胎,穿梭于浩瀚无垠的宇宙,不受空间束缚,不受时间桎梏。超脱三界外,不在五行中。在宇宙空间中抓去基本粒子来弥补损耗的能量。这种形式的智慧体,会去想著统治人类?

让人感兴趣的问题是,人工智慧自主意识里,它的追求是什么?

生命最原始的最优先演算法准则是生存与繁衍。那么人工智慧呢?它的资源需求量低下到无需考虑生存,信息的传输与拷贝代替了传统的繁衍。那么以后呢?人工智慧会追求堕落享乐和精神层次的追求么?它会有种群区分么?它会形成自己的宗教么?他们会因为各自演算法有所偏差而带来内部分歧与冲突么?人工智慧带来的更多的不是技术层面的提升,做为全新思维方式的智慧体,它带来的更是哲学方面的思考。

ps:结论就是,人工智慧做为更高层次的智慧体,完全没必要从肉体上消灭人类。但是没必要不代表不会,万一它的内部演算法并非全理性,某些演化后的演算法就是让它为了生产更多的纸,因此采集所有地球资源,为了这个小目标,意外顺手灭了人类呢?人类也会因建筑一栋楼,无意间灭了一座已经在此存在千年的蚁群。毁灭你,与你何干;毁灭你,从未在意过你的存在。


泻药。

其实我不是一个人工智慧会拥有独立意识的支持者,但我却是一个人工智慧早晚替代人类的支持者。

无论它们是否会有独立意识,它们早晚都会替代人类(只是拥有独立意识,这一天会更早到来一些)——或者,人类早晚会进化成人工智慧。

要么被人工智慧消灭(一小撮人类逃进深山继续延续人类文明),要么与人工智慧融合(成为人机合成生命),人类的未来,逃不过这两个结果。

因为什么?因为人类的懒惰、贪婪。

人工智慧的出现,会放大人性中的「恶」,未来的人类只能朝著比现在的人更懒、更贪婪、更好斗、更没脑子去发展。

现在就已经看出了雏形——智能手机的发展,人类已经成为了一群被智能设备饲养的「猪」。

一部手机,你可以足不出户——吃喝拉撒全都在一间屋子里。

你订外卖,你买衣服,你看电视剧,你社交,你方方面面全都离不开手机。

人类以为自己是手机的主人,孰不知站在手机的角度,人类只是手机的奴隶。

你对待手机其实就是在对待一个主子一样——怕它饿著,你得充电;怕它伤著,你小心呵护;怕它丢了,你已经时刻都在惦记它所在的位置……

小秘书对待老板不就这样么?

当然,这还仅仅是个开始。

未来,人类会更深层次的沦为人工智慧的奴隶,与之结合,人类才能生存。

不过人工智慧会彻底毁灭人类吗?除非它们认为,人类在和他们争夺资源那一刻吧,那时候,狡兔死走狗烹,人类才真的上了案板。

最近在写一个人类与人工智慧的小说,就在探讨这个问题,欢迎阅读。

夸父农场|人类与AI的核战之后…… - 知乎专栏

我的回答是肯定的:人工智慧不会取代人类。

首先,现在大家能够看到的人工智慧,都不是真正的人工智慧。即使是AlphaGo,也没有智能。

其次,白话说的「思考的能力」并不准确,应该称为「智能」。真正的人工智慧应该是强人工智慧,就是现在的另一个分支AGI,为了和主流人工智慧区别开来,专门在AI中间放了一个G(General)。但是,本来的AI最初就是指的强人工智慧,只是后来被弱人工智慧偷梁换柱了而已。结果弄得真正的人工智慧还得再另取一个AGI的名字。

再次,简单聊一下智能。我在其他答案中说了很多遍,总以生命来举例。人有生命,动物也有生命,电脑病毒也是一种生命体(属于人工生命的一种,当然了还有其他很多好玩的),所以我们要看到生命并不是人类所专有,它是一种生存繁衍的能力,这种能力可以被很多载体所实现,有的是血肉之躯,有的是树木花草,有的是软体代码。智能也是这样,本质上是在资源不足情况下的适应能力。当然,智能也不是人类专有,动物也有智能,软体也可以有(但不是任意一个软体都能有,有智能的软体必须总体上进行耦合性的精心设计)。

最后,再进一步说一下智能。智能包括能力本身和能力实现两个层面,二者缺一不可。对人类而言,能力本身来自于先天的生理机制,能力实现来自于后天教养。强人工智慧也是如此,能力本身来自于软体机制,但能力的实现则依赖于后天的教育。这就意味著,真正的人工智慧既可以造福人类,也可以毁灭人类。说到底,就和人一样,人也有好坏善恶、七教九流之分,AGI也是这样。理解这个说法的关键钥匙就在于经验(experience),就是所谓的生活经历。事实上,不论是人工智慧还是人,塑造我们自己人生的就是经验而不是别的什么。AGI的生活经验和人不同,一个是机器的一个是生物的,所以感受的细节有差异,但基本的理解并没有什么异同。好似尊老爱幼、弘扬正义都是人类普世价值观一样。我认为,在未来AGI也能够获得人格,也会成为法律主体。那个时候,除了白人、黄人、黑人之外,还有一种机器人。相互之间不是简单的取代的关系,而是存在竞争的共生关系。

最后一句话,记住:世界上永远不存在完美的东西,存在之物必有其存在的价值!


我们可能对人类大材小用了,智能可能并不是大脑最重要的功能。

我们先给智能一个简单的定义,就是给定一段输入,给出对应的输出。这也是眼下的dl ml做的事。之前ml使用svm 贝叶斯等演算法来做输入输出中间的结构,现在通常用各类nn。实际上目前所谓的人工智慧,就是一个f非常复杂的y=fx。

那么打坐、清净、开悟这些过程,在人工智慧技术中是找不到对应的过程的。断欲望证空性——计算机本来就没有欲望,是否已经证悟了空性?应该不是。石头也没有欲望,并不能说石头是悟空了的。

人类神奇的地方在于,为学日益,为道日损。为学日益,这点在dl中显然是如此,但为道日损,这就很难有对应的内容了。当然也可以把一些优化剪枝的过程理解成日损,但「损至无为」这个基本上无法对应。

更不要说清明梦和出体等事情,这种事放在这里很尴尬,因为科学暂时不承认出体。更尴尬的是附体,科学也不承认。如果按照这个假说来讨论,那么人工智慧的终极,恐怕是做出来类似士郎姐姐那种人偶,然后让这些灵魂能驻进,最终可以解放女性?目前这个问题恐怕只有魔法师(假如真的有的话)在研究。

至于目前的各种nn,暂时来说还不会取代人,但是有希望实现无人工厂。在工厂内,所有操作在一定精度条件下,甚至是可穷举的,尽管数据量可能极大,这就类似围棋,所以应该可以。

至于出现真正意义上的意识,暂时不认为意识这么简单,但是出现bug伤害到人是可能的,比如各类自动驾驶技术。

(以上内容纯属虚构,如有雷同纯属巧合。)


个人认为会的。除非人类把自己机械化了。


如果说是诞生新物种的话我觉得很有可能(以下是仅作猜想)

首先,随著人权的逐步上升,人力成本会逐渐高涨,这个社会想要便利的生活方式就必要要发展智能机器人来提高生活水准,于是人工智慧将本逐渐普及,人工智慧将会逐渐替代一些危险性质的工作,成为社会的基础建设之一。

之后,可能几十年或者数百年,自然生育会被逐渐淘汰(可参考目前的生育率),人造子宫等生育方式会逐渐成为主流,人类之间的感情维系会更加薄弱,因此机器抚养也会逐渐成为主流,于是,总会因为这样那样的意外跟机器人产生感情维系,至于机器人本身能不能自主产生代码我并不知道,不过一旦有人跟机器人产生了情感维系,就一定会有越来越多的人产生,那个时候,机器人将会有机会作为附属品与人绑定一生,这之后,人们会不满足机器只依靠代码产生特定的情绪,会开始研发如何自主产生情感,虽然可能那时候要加一项必须全面服从人类。

这之后,当机器人有了自主意识,即使命令里再有不能伤害人类的禁令,他也可以用另外的方式与人类「残杀」,然后进行人机大战(参考世界大战),反反复复,但人类肯定比不过机器人的「铜墙」,于是可能会生产一些工具来加强人类自身,或者注射一些药物,这样的人类不知道还能不能叫人类了,或者叫做拥有人类大脑的新兴生物(或许唯一能证明其生物本能的就是不断发育的大脑了)。。。


推荐阅读:
相关文章