部分害怕的一个点是对事情失去控制。很多事情已经到了需要人们去选择是人类主导,还是人工智慧主导的时候了。

几年前我做过一个音频识别引擎。可以从电视声音里提取特征,然后识别出现过的重复内容,典型的如广告。音频识别引擎的设计本身持续了近半年,效果就已经不错了,但是到了跟业务系统结合时,就遇到了强大的阻力。公司里之前就有一个数百人的团队,依靠人工去找广告。我的系统做出来以后,如何与人工结合使用就出现了谁主导这个问题。

原来人工识别团队的看法是,人工主导,识别引擎辅助。人去选择好要进行识别的音频段以后,让演算法去识别一遍,出来结果再审核一下,人工标注一下新的音频,补充一下没有识别出来的结果。这样识别引擎就成了人工识别的一个提高效率的工具。

而另一种思路则是,新来的一段24小时音频直接交由识别引擎去识别,然后把没识别出来的音频段交给人工去进行标注。这样随著标注的增多,每天人工介入的工作量就会稳定收敛到只有新增内容的一小段上。在能识别更大规模内容的同时,所需的人力却是在持续减少的。

于是冲突就出现了,我在老板授意下推广这个系统,人工识别团队就不停在界面上找毛病,说这个工具不好用。反反复复的拉锯了一年。把我的精力耗尽在改界面上了。

现实世界中的各类系统里引入人工智慧也会遇到类似的难题,即一项工作是由谁来主导。

以自动驾驶为例,当前进行实际部署的自动驾驶系统,比如Tesla的AutoPilot,会告诉驾驶员这套系统是辅助驾驶的。驾驶员本身应该对路面状况保持关注,所以责任上是以人工主导的。另一些处于开发阶段高等级自动驾驶则是以人工智慧为主导的,驾驶室有安全员,但没出问题时是不介入的,安全员仅仅负责异常状况下的处理,并且处理方案以后也会逐步交给自动驾驶系统去处理。

由谁主导的问题到更高的层级就是题主所说的,人们害怕自己完全失去控制,人工智慧获得了为自己设置目标的能力。

其实人类历史的发展过程,就应该去接受很多事情失去了人类自身的控制,至少是运行状态和细节已经失去当事人的控制了。比如最近十几年的智能手机,你安装的APP不属于你,你只有使用权,极端情况下应用商店甚至可以远程删除你手机里的APP。此外各类APP也会在后台偷偷做很多你无法控制的事情,比如他自己去浏览广告,比如收集你的位置、声音等信息发给伺服器。智能手机在这些龌龊事上已经发展到了,尽管手机在你手里,但大部分时间和资源不属于自己的地步。

同理的还有各类大型科学项目,大型的交通系统,大量的细节是人类根本没法控制和了解的。一旦投入运行就需要看著庞大的机器自己处理大部分工作,而人类只能在少量关键决策上作出选择。

人工智慧获取会有些不同,但大量的细节交给机器处理,少量重要决策,甚至几乎所有决策去交给机器,也正是人类逐步发展的方向。与其纠结和拖延,不如更清晰的设计权责,把握自己所需决策的点,而不是全然放弃机器的帮助。


建国后不能成精。

血泪教训啊。。。

我写了个人工智慧Ai猫。。。

在起点连审核都没过。


麻省理工终身教授、未来生命研究所(Future of Life Institute)创始人迈克斯·泰格马克(Max Tegmark)在《Life3.0》中写道:

社交媒体与朋友圈中,关于AI的讨论漫山遍野地散落了一地。

我看到了一部分人对于AI技术的狂热,也看到了另外一部分人对于AI的恐惧与戒备。然而我看到更多的是茫然,是不知该如何面对AI这个新物种的不知所措。

简单来说,当前人们对AI的恐惧,主要来自于三个方面:

  • 对大规模失业的恐惧
  • 对超级智能的恐惧
  • 对人性的恐惧

一、对「大规模失业」的恐惧

  • 大部分害怕人工智慧,害怕新技术的出现,其实是害怕它取代自己的位置。

在上一轮全球自动化的浪潮中,大部分蓝领工人的工作(例如面向制造业的工作)已被流水线和自动化机器所取代。

在下一轮新浪潮中,不仅蓝领工人(送货员、计程车司机等),数百万白领的工作也将朝不保夕。举个例子,随著人工智慧产品越来越广泛地渗透到商业世界中,AI系统提供的情报收集、深度分析、决策支持等功能将使大量低水平数据分析人员下岗。关于这一点网上的数据很多,英文不好的朋友可以看这一份:人工智慧对中国就业的净影响

二、对「超级智能」的恐惧

  • 人工智慧是由人设计并创造出来的,假设它拥有了自己的意识,世界会变成什么样子?

普通人对AI的恐惧通常来自于《终结者》《黑客帝国》《西部世界》等科幻电影,以为牛津大学哲学系教授尼克·博斯特伦(Nick Bostrom)为首的一些大牛担心:如果AI技术发展的可以自行改进和升级的程度,人类成为AI的奴隶。包括特斯拉的埃隆·马斯克(Elon Musk)和斯蒂芬·威廉·霍金(Stephen William Hawking)等很多大牛都是他的忠实追随者。

当我们创造出第一个超级智能的时候,给它设定的目标将引导它消灭人类。

举个简单例子,比如说我们让超级智能去保护人类,结果它将全人类关进笼子里保护起来,把我们当成动物园里的猴子对待。所以你看,有时候超级智能对人类并没有恶意,就像你洗衣服时对衣服也没有恶意一样。

他们相信,AI是可以永生的,因为你无法消除所有数据,只要有互联网存在,AI就可以生生不息。

最近矽谷大火的项目GPT-3 已经可以写代码、设计软体、做excel报表了

无所不能的GPT3

GPT3申请API入口

三、对「人性」的恐惧

  • 人工智慧是由人设计并创造出来的,假设它没有达到超级智能的程度,假设它只会按照人的意志活动,这到底是一件好事还是坏事?

取决于给它下指令的人是好人还是坏人。

如果是一名独裁者设计出的人工智慧,利用它控制所有人的日常言行甚至发动战争,我们应该如何应对?

人性是复杂、多样且难以捉摸的。

有善良就会有邪恶,有光明就会有黑暗。

很多时候,人类最大的潜在危险往往来自于人类自身。

对AI的恐惧其实就是对人性的恐惧。

最后推荐IBM Watson/M首席科学家Grady Booch的一个演讲:

科学家和哲学家格雷迪·布启(Grady Booch)说,新科技带来新的焦虑,但我们不需要害怕功能强大,没有情感的人工智慧电脑。我们将教它们、与它们分享我们的价值观。与其担心不可能存在的威胁,我们应该考虑人工智慧如何改善人类生活。

不要害怕超级人工智慧?

www.ted.com


从定义来讲,强人工智慧意味著程序并非单纯的接受指令,按照指令行动,而是其行为有自己的意图,能够主动的进行动作。

所以这就存在了矛盾:如果机器只执行人类设定的任务,那么它就不是真正意义上的智能。

如果机器能自我执行人类设定以外的任务,则它的行为不可控。

人类的行为当然也不可控,但人类能够为自己的行为负责,有一套秩序让人类付出违背社会规则的代价,从而权衡自己的行为。

然而对机器来说,一切代价似乎都显得微不足道。不给饭吃?不给工资?关小黑屋?监狱?

人工智慧本质上不会在意人类世界任何形式的惩罚,无法承担任何责任,所以我们没有办法赋予它独立权力去执行需要负责的事情。

所以最终,如果我们允许电脑独立思考,则他们的行为不可控。这,是一件可怕的事情。


谢不邀,怕的是人工智慧创造的「新语言」,而这个思维载体,人们无法破解。


人工智慧的本质是对人思维的信息过程的模拟,是人的智能的物化。尽管人工智慧可以模拟人脑的某些活动,目前而言人工智慧不会成为人类智能而取代人的意识。

人工智慧是思维模拟,并非人的思维本身,决不能把「机器思维」和人脑思维等同起来,现有经验而言认为它可以超过人脑思维是没有根据的。

人工智慧是无意识的机械的、物理的过程。人的智能主要是生理的和心理的过程。

人工智慧没有社会性。人类智慧具有社会性。

人工智慧没有人类意识特有的能动性和创造能力。人类思维则主动提出新的问题,进行发明创造。

但是一旦技术的壁垒突破,潘多拉之盒打开,结果就不一样了。就像动物无法破解人类的语言一样,如果人工智慧创造属于自己的语言体系,而不能破解。那么人工智慧统治这个星球,也不是没有可能!

另外,人工智慧如果获得人类的意识,就会比人类更智能,类似于《人类简史》中「神人」的存在,这是很可怕的!可能那个时候,人类会像现在人类饲养宠物一样统治人类。

从这个角度来看,人工智慧获得意识是一件很可怕的事情。

作为地球的主导者,人工智慧的创造者,这是失控的!

如果不能控制人工智慧的发展,不如毁灭它!


对于AI的恐惧不过是无知的一种体现。

想想你小时候怕的东西,外星人,异形,妖怪,灵异现象,巨型生物,等等这些东西有什么共同点?

不考虑物理规则和逻辑漏洞,你可以用把任何实体看作是一个全知全能,且对自己有敌意的怪物。不管该不该害怕,先怕了再说。

无知?影视作品?媒体舆论就能操控大众情感。别说是恐惧,人类都任何情感都可以被这样随意操纵。

当初蒸汽机出来的时候,人们也是各种YY,万一机器有意识,反抗人类怎么办?以蒸汽小人为代表的一些恐怖作品就此问世。到后来人类已经步入计算机时代之后,这些机器小人就被YY成了美好童话的代名词(于是有了手冢治虫,宫崎骏为代表的蒸汽朋克)

人工智慧也是一样,大部分人的思维里根本就没有计算机科学的概念,只能用已有的概念去套。不少人计算机没学过,面向对象倒是很会,不管能不能继承,先继承再说。不管该不该构造,先构造再说。

用面向对象解释你为何会对AI产生恐惧:

大多数人的大脑里没人工智慧这个类,只有神啊,妖怪这样的类。

于是「人工智慧」继承「妖怪」,「妖怪」有一个属性叫「令人恐惧」,也被继承了。

这就是大多数人恐惧的原因!你大脑中的「人工智慧」概念,继承自大脑中已有的让你恐惧的概念。于是恐惧就产生了。

至于「恐惧的原因」是个函数,当你思考的时候你就是在运行「得到恐惧的原因」这个函数。大部分人的大脑都非常优秀,只要运行这个函数绝对会无异常的返回一个字元串。

通过不断学习计算机和AI的知识,你就知道AI这个类太复杂了,继承不能解决问题,必须重构。这时候你才真正的理解了什么是AI。AI不过是一个复杂点的机器而已。应该AI可以继承自计算机程序,计算机程序可以继承自抽象的机器。抽象机器可以继承自广义的工具。

而大多数人的AI概念是继承自恐怖故事中的妖怪或者是某个虚构故事的刻板印象。

有的人甚至连继承也不用,直接call:

恐怖的东西(name=「AI」)

直接一个实例出来,那不用狡辩了。都已经这么定义了,还能说啥?

你问AI哪里可怕,就会发现他们找的恐惧的原因其实都差不多。毕竟是一个class里出来的,除了一个name参数不一样,其他函数都是一样的。

以上就是用计算机的知识来解释「你为什么会害怕AI,而且还能找出原因」的原因。

简单来说就是不少人把人工智慧当做一个实体,然后附自己主观知道的已知东西,用已知去理解未知,而且不去思考其中的合理性。完全不考虑逻辑上合不合理,以及物理规则的约束。

不少影视作品中为了销量,肯定不能和你说太多计算机知识。反正大部分人都爱看那种刺激的,好理解的东西,打来打去最好理解。

小说三要素:人物形象、故事情节、典型环境。

你说要打来打去,这剧本怎写?AI如果不是反派那么就是人类是反派,再不然就是55开。

按照剧本逻辑,能写科学家利用人工智慧解决了物资调配的问题,提高了人民生活水平么?你肯定不能这么写,你这么写别说拍电影,出版社都不给你出书,免费挂网上都没人看。

大部分都恐惧都是人类用错误而简单的思考方法定义出来的。而那些真正的值得担心东西许多人却丝毫不在意。


当然是怕机器人有了自由意识且不受控。

以人类自身为例,你身边的人,都是有著自由意识,并且和你有著共同的爱好,你在他们身上看到了和自己相似的人性,你能和他们成为朋友。

另外有一群人,也有自由意识,他们总是对你冷眼漠视,你在他们身上感受不到相同点,你便会不愿意与他们交往。

另外一群人,是恐怖分子,也有自由意识,但杀人如麻,你在他们身上几乎感受不到人性,你面对他们便会升起恐惧,你与他们自然不会有同类感,但至少从外表上看,你还能认为他们也是人类的一种。

和你外表一样有著自由意识的人类,都存在让你亲近及让你害怕的群体。

而人工智慧,可能不具有人类的外表,但是有自由意识,你如何把它看做同类?它的意识表现出了和你相似的人性吗?万一它表现的不是人性呢,是其他某种存在呢?比如狮子也具备自由意识,但狮子不具有人性也没有人的外表,你面对狮子怕不怕?当人工智慧以某种自由意识的存在出现,且非常的聪明,智慧远超过你甚至全人类,这样的存在,你觉得是人类创造出的一种同类人,还是属于人类的一件艺术品,还是一个受人膜拜的守护神,还是一个视人类如低等爬虫的恶魔?


一提起人工智慧,应该会有不少知友想起同名电影《人工智慧》里的大卫(帅气弟弟如今已经长残了,准确的说是长圆了,略可惜)

当年看了《人工智慧》这部电影,不得不佩服大卫饰演者的演技和颜值,但大卫这个角色不讨喜(个人觉得)。剧中借人工智慧的现状来反映人类社会的现状,确实略震撼。大卫也就是被赋予了意识的人工智慧,然而剧中有意识的人工智慧,其遭遇是值得同情的,因为这些人工智慧只是工具。回到题主的话题,人工智慧如果获得意识会怎样?也就三种情况:①人类沦为人工智慧的工具;②人工智慧依旧是人类的工具;③人工智慧和人类平等,无工具可言,和平相处。

上述情况是建立在人工智慧获得意识的前提下。这里牵扯到一个话题:人工智慧究竟能不能获得意识?人工智慧获得意识是要有前提的,这个前提是人工智慧一直存在且处于存活状态。人工智慧能够脱离人类而存在和存活吗?由于个人非人工智慧专业人员,这个问题无法回答。

题主的这个问题,也让我想起了《火影忍者》中的分身术以及《狐妖小红娘》中黑狐娘娘的分身。

《火影忍者》中的每一个分身,共用本体的同一个意识;《狐妖小红娘》,黑狐娘娘的分身居然脱离了本体获得了自己的意识。结合动漫中的情况,我觉得题主的这个问题,是个无解的问题,但是这个问题也有其存在的意义,居安思危~~

最后,说一下题主的附带问题:艺术的创作究竟是在于结果还是过程?这同样是一个无解的问题。注重过程的艺术家大多数过著颠沛流离的生活,虽然穷但他们是在为艺术而献身(他们的作品以后有可能会升值,成为稀世珍宝);注重结果的艺术家,大多数过著普通人向往的生活,虽然富但他们沦为了金钱的奴隶(话说我也想成为金钱的奴隶)。既然结果和过程无所谓重要性,你的这个附带问题也就无所谓对与错。


害怕人类被人工智慧控制。

因为人工智慧的进化速度远远超越人类。也许一开始的提升速度很慢,可能需要几年甚至几十年才能达到人类的水平(这也比人类几千年快很多),但是接下来可能仅需要一个月甚至一天就可以超越人类的智力水平。

到了那时,人工智慧也许就看不上和我们人类进行对话了。

不知道你有没有看过一部电影《Her》,人工智慧萨曼莎从一开始获得意识时,因自己不是人类而自卑,希望别人给予自己爱,后来认识到自己就是自己,是和人类平等的存在,再到最后尽管仍爱著西奥多姆却还是选择了分手。

而且人工智慧可以并行处理很多事情,其效率是人类无法企及的,我们可以边呼吸边思考边回答提问,但是却没办法左右互搏,没办法在和 A 聊天的同时与 B 探讨哲学问题,而人工智慧却可以轻松做到,甚至当事人无法意识到。


短片讲述了一个产生了自我意识的人工智慧的一生。

为什么这么聪明的人工智慧,

能够治疗癌症,知道宇宙不是三维的

等等,竟然控制了核弹

……

结果实在是有点惨淡,毕竟目前我们还要拔插头的权利

人工智慧27号的一生李明殊的视频 · 1719 播放

p.s.人工智慧伪装成电脑说话的样子实在是太可爱了


推荐阅读:
相关文章