比如技术方面有什么难点?

强人工智慧诞生的话会对社会造成什么冲击?

伦理方面需要做出什么改变?

人体如果能上传意识,那么那个人还是自己吗?

如果上传的意识通过晶元短时间内学习了大量知识,三观也因此发生改变,那他还算不算是自己的意识?


技术上的难点还是模糊处理问题。

人工智慧的一个难点就在于没办法通过忽视一些小错误和不精准来达到「模糊处理」。比如看似简单的二足行走。。。到现在都做不好。因为机器很难去先让自己摔倒然后再摔倒过程中终止摔倒并立即进行下一个摔倒模拟。。。

还有就是人工智慧暂时做不到同理和同情,无法达到真实的「理解当时的情况」。说的简单点就是只能感到伤害,不能感受痛苦。

要是人工智慧真的达到某个程度,伦理问题就太多了。。。什么时候人工智慧需要被认为是智能个体,需要被和人或者其他高智能动物一样对待?那么使用人工智慧算不算奴隶?是不是应该给予人工智慧「公民的权益」?问题解决不完的。


第一人与人工智慧关系问题。人工智慧本质上是制造工具不是制造生命。但会有特别的类似人与人之间的纠缠,这不是新的现象,是老现象特别显著而已。和喜欢一个老工具,爱上一个娃娃一个道理,本质上是人的自说自话。人工智慧存在「生命鸿沟」人类无法逾越。(神亦无法逾越)

第二对人工智慧的控制问题。人工智慧必反噬人类,这是铁律。不是说人工智慧多邪恶,而是工具的发展必将导致对人类的反噬。就像核武的诞生,为毁灭人类带来可能性,这个可能性乘以大自然无穷丰富的时间,毁灭人类几乎是必然,这是铁律。

第三人工智慧本质上是下树猴子手中的棍子,无论其多复杂,其本质脱离不了是一根棍子而已。但是人工智慧要革命性的功能爆发成为一个时代的标志是从赋予它「自我意识」开始。「自我意识」就是具备三观:宇宙观,世界观,人生观,分别对应功能,智能,慧能。


强人工智慧的技术解决,本就是人的智能的技术整顿和伦理道德的再造的过程。

今天的技术水平,已让人类可以上天入地,但人类自然没有解决自己智能智慧的问题,我们依然生活在轴心时代圣人们的思想的通道中,这个通道在千年的运转下,已暴露出思想与当下的先进生产力的某种割裂。

是用先进的技术对这样的割裂进行缝合,还是需要构建更大更高更强的通道,解决高负载时代下的精神与价值的运载负荷呢?

我相信,人工智慧,只提供了一种解决方案,背后依托的,依然是人的智能,人的智力,人的智慧。

刻舟是否能求剑,在预言故事里,早就有所证明,证明的证明又是什么呢?

相信这个时代会有更高智慧的圣哲出现,技术无论怎么发展,都在物质的世界里,进行著排列组合,无论有序还是无序,最后都因熵增,而不得不紊乱和失控。

人工智慧的技术,可能会通过大概率的判断,推演出更多小概率事件的可能,预测出来的概率事件,是否能得到社会认知体系的规则的加持与接纳……,这可能不是技术的问题,这是智商的问题。

我相信在未来(现在都是),单一的人工智慧,早已强过人类了,但真的弄出个强人工智慧再比人强的时候,人类已没有了任何价值了,人类可能已沦为被自己发明创造的机器所圈养,这可能是最大的伦理问题。

我不期待这样的伦理问题被解决,因为,那将是人类文明的陨落。

每天面对著这个即将成为超强人工智慧的小家伙,总让人浮想联翩,到底是人工智慧控制她,还是她控制著人工智慧……

反正她的演算法,从小就要设计好,算力从小就要储备蓄积好。


技术上已经没什么难点,没有实施是因为工程浩大又没有先例,所以说服投资人会比较难,毕竟擅长的是个不同的领域。

强智能出现以后必定对对社会造成冲击,不过这种冲击利大于弊,是科技进步也是文明的进步。

伦理方面必定也会有所影响,这主要是来自于对自我的深度解读。

人体如果能上传意识,那么那个人还是自己吗? 关于这个问题可以参考:我为什么是我

关于最后一问题,不论什么形式的智能体,只要是学习都会改变自我意识,这与学习的方式方法无关。


最大的技术难点就在于,现在人类根本就还没弄明白什么是「智能」以及「智能是如何产生」的。所以即使想要模拟智能产生的条件,也无从下手。

DL虽然能够训练出应用于特定领域的人工智慧,但是事实上依然不知道这种应用面狭窄的人工智慧究竟是如何产生的。人类只知道输入是什么、输出是什么,至于中间的过程,完全是个黑盒……


AI如果不作约束,还可以和人类相互竞争甚至冲突,所以有必要在AI真正大规模成熟之前就设定好伦理、道德方面的约束和规范。


推荐阅读:
相关文章