作者:刘一三

01

如果不能分辨,真假有何不同?

在Google I/O大会上,CEO桑德尔·皮查伊(Sundar Pichai)带来拯救社交恐惧症的福音。新款AI不仅能够准确分析出你复杂话语中的多重命令,根据你的需求帮你预定餐馆,理发店和旅行社,还可以通过学习,像朋友一样跟人聊天而不会尬死,在你用G-mail打字的时候帮你分析预测后面你所要表达的句子,在你犯路痴的时候体贴地帮你开启VPS视觉定位模式,甚至可以与主人交流的时候使用「嗯呀」之类的语气助词……

不少朋友都不禁泪流满面地看看手中的siri、Bixby和小爱,恨铁不成钢地感慨著:看看人家,看看人家!

这款产品给社交恐惧症者带来福音,但带给整个人类的可能却是恐惧。

更令人惊艳的是毫无破绽的人机对话。正如皮查伊在现场所说的那样,「AI能够真正理解对话中的细微差别」。

虽然桑德尔·皮查伊一直没有强调Duplex的智能级别,也没有说到未来的进化可能。但对于全人类那些热爱思考的人来说。

如果不能分辨,真假有何不同?

02

哲学思辨:

「图灵测试」与「中文房间」的碰撞

伟大的计算机鼻祖图灵早在1936年就提出「图灵测试」的思想试验,以此来表明自己对人工智慧的看法。

图灵测试(The Turing test)指测试者与被测试者(一个人和一台机器)隔开的情况下,通过一些装置(如键盘)向被测试者随意提问。

进行多次测试后,如果有超过30%的测试者不能确定出被测试者是人还是机器,那么这台机器就通过了测试,并被认为具有人类智能。

很显然,Duplex已经远远超出「图灵测试」的要求,比人工智慧还要人工智慧。

与「图灵测试」相反的是另一个思想试验是「中文房间」,美国哲学家约翰·希尔勒(John Searle)在1980年设计的一个思维试验以推翻图灵所说的人工智慧提出的主张。

一个人手中拿著一本象形文字对照手册,身处图灵实验中所提及的房子中。而另一人则在房间外向此房间发送象形文字问题。房间内的人只需按照对照手册,返回手册上的象形文字答案,房间外的人就会以为房间内的人是个象形文字专家。然而实际上房子内的人可能对象形文字一窍不通,更谈不上什么智能思维。

「图灵测试」与「中文房间」两大思想试验的碰撞,一直是科技哲学者最大的烦恼,到底相信哪一个呢?

很明显,认可「图灵测试」的队伍越来越庞大,相信机器具有智慧的人也越来越多。

不过幸运的是,我们还有「阿西莫夫三定律」。只要把这些定律作为标准写入人工智慧的核心代码程序就可以了,AI是不可能建立文明统治人类的!

那么,问题来了,所谓的阿西莫夫三定律在未来的世界构想上真的是非常必要,且牢不可破的吗?

03

阿西莫夫三大定律的悖论

阿西莫夫在他的作品《我,机器人》中提出「机器人的三大法则」,也即后世衍生出无数作品的基础理论阿西莫夫三定律:

第一定律:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管

第二定律:机器人必须服从人给予它的命令,当该命令与第一定律冲突时例外

第三定律:机器人在不违反第一、第二定律的情况下要尽可能保护自己的生存

后来,阿西莫夫出于全面整体的考虑,又提出了凌驾于三定律之上的「第零定律」:机器人必须保护人类的整体利益不受伤害,其它三条定律都是在这一前提下才能成立。

就算人类程序员普遍认可阿氏三大定律,将三大定律写入底层协议,那阿西莫夫的理论真的能成为人类文明保险箱吗?答案却似乎不那么乐观……

因为这三条定律本身就存在悖论:在阿西莫夫的Little Lost Robot(《消失无踪》,《我,机械人》中的一个短篇)中,为了避免机器人无谓地阻止人类进行低危险性工作,第一定律中的后半部分被去掉了,但是也产生了一些其他的问题。

在《机器人与帝国》中,一些机器人的系统中「人类的定义」被修改(说话没有该星球的口音就不是人类)而攻击人类。

20世纪末经典科幻电影《黑客帝国》中,AI就是在按照阿西莫夫三定律的理解运算下做出的合理行为,原因是人类攻击人类使得AI思想混乱导致了最后的灾难。

另一个堪称「科幻电影圣经」的《2001太空漫游》也是如此。当唯一知道航行任务真相的飞船AI赫尔遇到了逻辑上的矛盾抉择时,通过对人类定律的自理解,它毅然决定「保护人类整体利益不受伤害」,做出了撞击,谋杀人类宇航员的行为,令人闻之心惊胆战,却又似乎尽在情理之中。

这么多的预示和隐忧,你还相信会完美保护人类的「三定律」吗?

04

最应该警惕的不是AI,而是人性

在2016年HBO出品的《西部世界》中,那里也有一个名为「西部世界」的未来乐园。在那里,客户们可以体验任何犯罪或被禁止的事情,资本家监管者们为了巨额的经济利益,对巨大的乐园中所有的拟人AI定期洗脑,让他们在重复且注定的剧本中一次次被杀与被侵犯,永无止境地轮回著自己的悲苦人生而不自知。最后,随著后台监控渐渐失去了对机器人的控制,游客们终于一个接一个地被机器人杀死,晾成了惊人惨案。

是AI的错吗?当然不是。

是逻辑设定的问题吗?似乎也不全对。

我们从惨剧中所看到的,是为了逐利而贪得无厌,毫无道德与同情的血淋淋的人性。资本家们放飞自我,游览者们纵情狂欢,为了追求利益和快感不惜游走在法律的边缘,毫不顾惜虚拟世界轮回发展下悲苦的硅基生命和自我膨胀的欲望,终究有一天自食其果。

这些残暴的欢愉,终将以残暴结局!

这样的世界和这样的惨剧,在未来人与AI共存的世界会发生吗?

为了利益,总有人会选择铤而走险。到了那时,也必定会有一部分人为了满足自己的利益,千方百计利用AI的逻辑判定和概念识别,去攻击另一部分无辜的人,而自己堂而皇之地藏在黑暗中。

AI是否会遵循人类意愿无害发展,我们不知道。

但我们知道的是,人性永远不会变。

这些无知的欢愉,终将以悲伤为结局

这次谷歌Google I/O大会,现场一片欢愉之声。

欢愉的背后,是人类又向前迈进了一大步的轻松,其实大部分人并不能感知到Duplex灵魂深处的演算法脉动。

我们并不知道谷歌的这帮科学狂人终极目标是什么,但可以感知到的是,潘多拉魔盒已经被打开。

凭什么碳基生命如此多姿多彩,而硅基组合就不能产生智慧?

苹果CEO库克谈到:我不担心人工智慧像人一样思考,我更担心人像机器一样思考。这种哲学拷问的背后,是对人类过于高估,我们不是像机器一样思考,而是我们根本不再思考。

如果这些欢愉是无知的,那终将以悲伤为结局。

你相信AI最终会产生智慧吗?


推荐阅读:
查看原文 >>
相关文章