舉例自動駕駛,突然遇到危急狀況應該由機器還是人類控制決策權。如果人工智慧發展到可以依託數據做出宏觀決策的話,人類是否會保留一些重大事件的決策權。既然人在衝動或其他主觀因素可能會做出對全人類來說不夠理性的決策,那麼重要事件的決策權交與機器是否合理


不可以,涉及到任何管理許可權,都不可以放給機器。自動駕駛如果出事只涉及到個人安危,這是個人行為,程序錯判也只是他自己死了。但是重大決策不一樣,甚至都不用重大,只要涉及到管理,都不行。

因為管理的本質是負責。誰下的命令誰擔責。人類對權力 金錢等等的渴望和失去這些的恐懼,加上文化教育帶來的責任感和使命感是責任的內核,也是敦促某一個人謹慎決策的關鍵。偏偏機器是無法理解慾望,恐懼,責任感的。也就是說,程序是不能負責的。程序可以提供建議,就跟智囊團可以給管理者建議一樣,但是下命令的永遠是管理者,而不是智囊團。


我認為有必要保留。

因為人類社會實際上是個混沌體系,沒有誰有精確的公式能夠描述整個人類社會的狀態,就算整個人工智慧再先進,也無法精準測算整個社會的行動。最多只能算出一個概率來,然後權衡收益做出選擇。

然而這樣的選擇是冰冷的,可預測的。

心理學的博弈論的最糟糕的結果就是建立在這種冰冷的可預測的選擇上的。

人性最偉大的一點就是信任,一種沒有原因沒有理由的信任,有時帶來的是災難,但也有時候帶來的是一條嶄新的道路。


機器能實現並誘導所計算的未來,自己覺得能否交與取決於其本身的信息是否適用當前的決策!


人工智慧有可能會做出最合理的選擇,但是最合理的就是人想要的么?

假設,一個小女孩和一個成年男性一起出車禍,男性存活率高,女孩存活率很低,這個時候合理的選擇肯定是救男性,但是要是人類做決策,我想絕大部分人都會優先救小女孩。


上演了20年的終結者系列已經告訴了大家,重要決策一定要由人掌控。

例如:發起攻擊、挑起戰爭之類的


不能,因為選擇即負責,決策權既然是一項權利,那就有對應的義務,你必須承擔決策失敗所帶來的結果,引咎辭職、被逮捕、被審判、身敗名裂都是有可能發生的。

但你怎麼讓一個人工智慧去承擔這個義務呢,如果決策失敗,你拔他網線嗎?

有的鍋就在那裡,你是甩不掉的。


推薦閱讀:
相关文章