举例自动驾驶,突然遇到危急状况应该由机器还是人类控制决策权。如果人工智慧发展到可以依托数据做出宏观决策的话,人类是否会保留一些重大事件的决策权。既然人在冲动或其他主观因素可能会做出对全人类来说不够理性的决策,那么重要事件的决策权交与机器是否合理


不可以,涉及到任何管理许可权,都不可以放给机器。自动驾驶如果出事只涉及到个人安危,这是个人行为,程序错判也只是他自己死了。但是重大决策不一样,甚至都不用重大,只要涉及到管理,都不行。

因为管理的本质是负责。谁下的命令谁担责。人类对权力 金钱等等的渴望和失去这些的恐惧,加上文化教育带来的责任感和使命感是责任的内核,也是敦促某一个人谨慎决策的关键。偏偏机器是无法理解欲望,恐惧,责任感的。也就是说,程序是不能负责的。程序可以提供建议,就跟智囊团可以给管理者建议一样,但是下命令的永远是管理者,而不是智囊团。


我认为有必要保留。

因为人类社会实际上是个混沌体系,没有谁有精确的公式能够描述整个人类社会的状态,就算整个人工智慧再先进,也无法精准测算整个社会的行动。最多只能算出一个概率来,然后权衡收益做出选择。

然而这样的选择是冰冷的,可预测的。

心理学的博弈论的最糟糕的结果就是建立在这种冰冷的可预测的选择上的。

人性最伟大的一点就是信任,一种没有原因没有理由的信任,有时带来的是灾难,但也有时候带来的是一条崭新的道路。


机器能实现并诱导所计算的未来,自己觉得能否交与取决于其本身的信息是否适用当前的决策!


人工智慧有可能会做出最合理的选择,但是最合理的就是人想要的么?

假设,一个小女孩和一个成年男性一起出车祸,男性存活率高,女孩存活率很低,这个时候合理的选择肯定是救男性,但是要是人类做决策,我想绝大部分人都会优先救小女孩。


上演了20年的终结者系列已经告诉了大家,重要决策一定要由人掌控。

例如:发起攻击、挑起战争之类的


不能,因为选择即负责,决策权既然是一项权利,那就有对应的义务,你必须承担决策失败所带来的结果,引咎辞职、被逮捕、被审判、身败名裂都是有可能发生的。

但你怎么让一个人工智慧去承担这个义务呢,如果决策失败,你拔他网线吗?

有的锅就在那里,你是甩不掉的。


推荐阅读:
相关文章