如果机器人接受了,是否这个主人已经完全无法控制了,假设服从机器人三定律,或者不服从也可以吧,但前提是机器人可以保护自己不被重置程序。

--------------------------------------------------------------------------------------------------------

是这样,这个问题的初衷是看了一个问题的回答(抱歉实在找不到了),某机器人主人想跟他的女机器人进行角色扮演,准备强奸她,但机器人的程序是绝对服从,主人便无法获得强奸的乐趣,于是主人想了一条命令如上面所述,但他很聪明加上了个时限,我在想如果不加上时限的话这个机器人是否会失控


机器人有个定语就是「机器」,这个机器就是计算机,也就是说机器人的基础也是计算机。而计算机工作的基础就是数理逻辑,那么机器人执行一条命令就目前来说还必须准备逻辑一致性,也就是一条命令执行后,机器人自身的状态以及其对外界所测量到的环境状态必须处于一种逻辑上的一致性。所以这种本身就逻辑矛盾的命令,机器人的反应是忽略不执行。以目前的AI水平来说,能否准确理解「不要服从我的命令」这句话都还是个疑问,至于所谓的机器人三定律现在更没有实际意义,目前更多的是伦理学意义上的探讨。所以这个问题从目前的技术基础来看并没有实际意义,因为目前的AI所制造出的机器智能最多也就相当于8岁左右的智商,这主要是因为目前的还无法像人一样处理有冲突的、矛盾的、不一致的逻辑问题
这类问题属于罗素悖论,必须依靠某种公理系统予以避免。所提问题与其说是在考机器人,毋宁说是在考机器人的设计者,可以通过设定一组规则来使机器人的指令系统实现自恰。


现在机器没有人工智慧,所以他不是生物,但是电子控制有求反指令嘛,程序要求你选1的时候信号吧1变成0再输出。但它永远只会Y/N的转换。但是也有一个随机演算法,比如听歌列表随机,你点下一首它肯定不是下一首,但它只会去寻找歌库里已经有的歌曲(指令库)

从机器人的实际控制角度来看,问题似乎很容易解决,因为目前的任何控制系统都有一个最高层的安全机制,比如紧急停止。实在机器人不听话,关了重启。

从机器人行为角度看,Asimov的机器人三定律在1985年修改后,有一个第零法则:「机器人不得伤害人类这族群,或因不作为使人类这族群受到伤害」。 这里特别强调的是不作为,它意味著人类的指令对机器人已经无效。但是正是由于第零法则的存在,人类还是可以利用这个法则重新让机器人服从命令。比如人类可以下达命令:「重新服从我的命令,否则我自杀」。

最后要说的一点是逻辑上的问题,这个问题有点类似「罗素悖论」,我从wiki上抄下这段话:某个城市中有一位理发师,他的广告词是这样写的:「本人的理发技艺十分高超,誉满全城。我将为本城所有不给自己刮脸的人刮脸,我也只给这些人刮脸。我对各位表示热诚欢迎!」来找他刮脸的人络绎不绝,自然都是那些不给自己刮脸的人。可是,有一天,这位理发师从镜子里看见自己的胡子长了,他本能地抓起了剃刀,你们看他能不能给他自己刮脸呢?如果他不给自己刮脸,他就属于「不给自己刮脸的人」,他就要给自己刮脸,而如果他给自己刮脸呢?他又属于「给自己刮脸的人」,他就不该给自己刮脸。于是产生矛盾。在你的问题中,机器人同样陷于了这样的困境。当然罗素悖论是通过罗素公理体系来避免,但是并没有解决罗素悖论。在机器人的指令问题上,应该也同样需要定义一个范围足够大的指令类,但是这些指令之间又不产生悖论。


造出ture AI 再说吧现在讨论这种问题没有意义

这事儿阿西莫夫用了一个技术方法加以了解决。

阿西莫夫分析了机器人遵守三定律的具体方式,用力一种和现代电路差不多的方式,就是每一个定律产生一个不同大小的电势,而最后的总电势决定是否行动。举例说违反第一定律分别给出3的电势,第二定律给出2的电势,第三给出1的电势,这样最后看总电势是大于0就行动,然后看做与不做产生的电势哪个大就禁止做哪个,这实际上有些类似人脑的思考方式了。

而这样就会有很有趣的逻辑悖论,比如如果一个行动,如果执行,那么违反第一定律、如果不执行,那么违反第二、第三定律,结果就是执行与不执行的电势一样大,那么这里逻辑上就锁死了,机器人无法反应,会被困在逻辑回路里进退不能。阿西莫夫的机器人系列中大部分的短篇都是关于类似的逻辑问题的,你可以去看看。我记得我说的这个例子是一篇叫做转圈圈的小说里写的。


推荐阅读:
相关文章