现阶段人工智慧的学习方式可以说与人类学习或者思考的方式大相径庭,而大多数持「人工智慧威胁论」的人无非把人工智慧拥有意识为前提,且先入为主地认为「把自身利益当作行动优先顺序」这种属于生物的思考特征代入机器人思考里面。那请问这种想法有合理性吗?


网易智能(公众号 smartman163)曾经创作过如下文章,希望能够解答您的困惑:

忘掉如今人工智慧领域的小幅进步吧,比如汽车自动驾驶的能力越来越强。等待我们的可能是一项突破性的进展:一种能够感知自身及其周围环境的机器,它可以实时接收和处理大量数据。它可能会被安排执行危险的任务,比如被送进太空或参加战斗。除了开车,它还可以做饭、清洁、洗衣服——甚至当其他人不在身边时,陪伴在我们身旁。

理论上说,一系列十分先进的机器几乎可以取代所有的人类工作。这将使人类免于平凡的苦差事,但也会动摇许多社会基础。没有工作,只有玩乐的生活可能会变成一个反乌托邦(与「乌托邦」相对,指不幸之地,?这种社会表面上充满和平,但内在却充斥著无法控制的各种弊病)。

具备意识的机器也会给法律和道德带来问题。有意识的机器是否在法律意义上可被视为「一个人」,如果它的行为伤害了某人,或者是犯了错,它会承担责任吗?想想一个更可怕的场景:这些机器是否可能会反抗人类,并希望彻底消灭我们?如果答案是肯定的,它们代表了进化的顶点。

作为一名从事机器学习和量子理论的电气工程和计算机科学教授,我可以说,研究人员对于这种超感知机器是否会存在尚有分歧。还有一种争论是关于机器是否可以或者应该被称为「有意识的」,就像我们对人类的看法,甚至是一些动物的意识一样。有些问题与科技有关,而另一些则与意识的本质有关。

有「意识」就足够了吗?

大多数计算机科学家认为,意识是伴随技术发展而出现的一种特征。一些人认为,意识涉及接受新信息,将旧信息存储和检索,并将其认知过程全部转化为感知和行动。如果这是对的,那么终有一天机器将成为终极意识。相对于人类而言,他们能收集与存储更多的信息,快速处理庞大的数据量,从而做出复杂的决定,比任何人类都更加具有逻辑性。

另一方面,也有物理学家和哲学家说,许多人类行为是无法由机器计算出来的。例如,创造力,以及人们所拥有的自由感,似乎并不来自于逻辑或计算。

然而,这些并不是关于「意识是什么」以及「机器是否能实现」的唯一观点。

来自量子理论的视角

另一个关于意识的观点来自于量子理论,量子理论是物理学最深奥的理论。根据传统的哥本哈根解释,意识和现实世界是同一现实的互补方面。当一个人观察,或在物理世界的某个方面进行实验时,那个人的有意识的互动会引起明显的变化。因为它把意识作为一种假设,并且没有试图从物理学中推导出它,哥本哈根的解释可能被称为意识的「大C」观点,它本身就是一种存在的东西——尽管它需要大脑才能变成现实。这种观点受到了量子理论先驱们的欢迎,比如尼尔斯波尔、维尔纳海森堡和埃尔温施罗丁格。

意识和物质之间的相互作用导致了悖论,在经过80年的争论后,这些矛盾仍未得到解决。一个著名的例子就是薛定谔猫的悖论,在这种情况下,一只猫被置于一种情境中,结果是它同样有可能存活或死亡——而观察本身就是使结果确定的原因。

相反的观点是,意识是从生物学中产生的,就像生物学本身从化学中产生,而化学又反过来从物理学中产生。我们把这种不那么广阔的意识概念称为「小c」。它符合神经科学家的观点,即大脑的思维过程与大脑的状态和过程是相同的。它还符合对量子理论的一种更近期的解释,其动机是试图摆脱多世界解释的悖论,在这种解释中,观察者是物理学数学的一部分。

科学哲学家相信,这些现代量子物理学观在古代哲学中有相似之处。"大C"就像吠檀多派的心智理论——在这个理论中,意识是现实的基本基础,与物理世界是一样的。

相比之下,「小c」则与佛教非常相似。尽管佛陀选择不去解决意识本质的问题,但他的追随者宣称,思想和意识是由空虚或虚无产生的。

「大C」和科学发现

科学家们也在探索意识是否一直都是一个计算过程。一些学者认为,创造性的时刻并不是经过深思熟虑的计算的结果。例如,梦或幻像本应激发出Elias?Howe于1845年设计出的现代缝纫机,以及August?Kekulé在1862年发现的苯的结构。

一个案例与自学成才的印度数学家Srinivasa Ramanujan(1920年去世,享年32岁)有关。他的笔记本被遗忘了大约50年,直到1988年才被出版,笔记本中含有几千个不同领域的数学公式,没有推导过程,却远超那个时代。此外,他发现的这些公式方法仍然难以捉摸。他自己声称,在他睡著的时候,这些公式是由一位女神向他透露的。

「大C」的意识概念提出了一个问题,即它与物质的关系,以及物质和精神如何相互影响。意识本身不能改变世界,但也许它能改变数子过程演化的概率。正如康奈尔大学的物理学家在2015年所证明的那样,观察行为会冻结甚至影响原子的运动。这很可能是对物质和思想相互作用的解释。

思想和自组织系统

意识现象有可能需要一个自我组织的系统,就像大脑的物理结构一样。如果是这样,那么当前的机器存在缺陷。

学者们不知道自适应的自组织机器是否可以被设计成和人脑一样复杂的东西,我们缺乏这样系统的数学计算理论。也许,只有生物机器才具有足够的创造力和灵活性。但是,这表明人们应该(或者很快)开始研究新的生物结构,这些结构或可能变得有意识。

本文最初发表于The Conversation。

选自:singularityhub

作者:Subhash Kak

编译:网易智能

审校:nariiy


谢邀!

回答这个问题之前,首先要搞明白人脑与人工智慧的区别在哪里。

目前的人工智慧是人脑的小跟班,就是人脑会的东西,人工智慧会做的更精。但是人脑有两点优势,目前的人工智慧无法超越。

1:人脑的创造力:这要源于脑神经元之间奇妙的联系。比如一个小孩他被开水烫伤过,那么再遇到那种冒热气的,或者看起来很烫,比如说烧红的木炭,他会预计到危险不去触摸。这就是神经元的联系,把以往学到的经验推广到预知未来上。比如人看到鸟类飞翔,那么他会去想著把铁皮弄成翅膀样,这就是飞机的起源。而人工智慧是没有这个能力的,比如你教了它开水烫,它就不会想到木炭也烫这个事情,所以人工智慧演算法对训练数据有一定的依赖性,对与训练数据完全不同的未来数据,无法做出可靠的推断。

2:人脑的情商:情感的部分,人可以通过喜怒哀乐调节身体,也可以通过爱,恨这些主观情感来构架社会这一机制。人脑在强烈情感的刺激下,会奔发出惊人的潜能,虽然目前科学还不能解释这种现象。但是毋庸置疑的是,人类的每一项重大发明里,都有情感的影子。

如果人工智慧想要拥有意识,首先得先拥有这两项能力。这两项能力,可谓人类意识得灵魂。


人工智慧有没有自我意识,相当于问人有没有灵魂一样,是个哲学问题。

自我意识是终极的主观体验,是不依赖任何经验,不被主观因素损限制,且不由任何物质和能量构成。相对的,自我意识是人感知物质的前提。

也就是说,任何由数据和演算法堆积的人工智慧都不具有所谓的自主意识。

但也不是完全没可能。

在百年之后,人们像科幻片里一样,研制出一种能完全取代人脑神经的物质时,人工智慧才算真正地具有了 「自主意识」!

(那时,人们该怎样和有自主意识的人工智慧相处呢?

像科幻片中一样,人机大战?像霍金所预言地那样,毁灭世界?机器文明?机器公民?人机恋?我的回答是:

明天的事明天再说,未来的事等我能活那么久再说…

(我的第一次给人工智慧了,望指教)

我的答案是人工智慧这个人脑的模仿品最终会拥有意识,时间表无法给出。因为某种意义来说,人体也是一部各种功能组件整合在一起的机器,而这些组件的功能,目前的科技几乎都能发展出他们的功能替代品,比如肾脏的功能是过滤血液,但是如果你的肾脏不工作了,我们可以用人造机器来代肾脏工作,好像医院里的血液透析器就是人造肾脏,功能上完全一样,只是不易携带,另外心脏也就是一个小水泵,肺也就是一个碳的氧化器,肠胃也就是大分子有机物的组合解析室,还有其他骨骼皮肤口腔等,以现在的科技都应该不难实现人造的功能替代品。

现在就剩下大脑了,它还顽强的镇守著也是不断被蚕食著的造物主最后的尊严阵地,只要这块阵地还在,造物主就依然还可以高高在上,继续一箩筐一箩筐的收下人们膜拜的膝盖。可是面对人类勇士前仆后继的强大智慧火力攻击,我觉得大脑这块最后高地也吃枣药丸,造物主也会被无情的赶下神坛,终结它对人类长达200多万年的独裁统治,在制造与解释生命的国度里我们人类最终会迎来更广范的民主模式。

回顾过去,我们还是应该感谢造物主这位人民公仆曾经为我们做出不可替代的贡献,展望未来,我们在今后的日子里将会平等的与他携手,共创更加美好的明天


不可能的,建议看下王垠的博客,有一篇关于人工智慧的写得很好:http://www.yinwang.org/blog-cn/2017/04/23/ai
推荐阅读:
相关文章