機器人三大法則

 第一條:機器人不得危害人類。此外,不可因為疏忽危險的存在而使人類受害。第二條:機器人必須服從人類的命令,但命令違反第一條內容時,則不在此限。

第三條:在不違反第一條和第二條的情況下,機器人必須保護自己。


阿西莫夫在編機器人三大法則的時候,計算機還沒有普及,這局限了他的想像力,要不然設想的銀河帝國也用不著靠一整個川陀星球來維持行政運轉了,不過,缺乏對計算機的認識,另一方面也放飛了阿西莫夫的想像力,讓他編出「機器人三大法則」。

我們一條一條來看有沒有可能編程實現「機器人三大法則」:

第一條:機器人不得危害人類,此外,不可因為疏忽危險的存在而使人類受害。

現在的計算機,通過編程讓機器人判斷什麼是「人類」,有很大難度,就算讓你現在用自然語言定義「什麼是人類」估計你也做不到吧,何談編程實現。

但是,用機器學習的方法,用大量訓練材料訓練出這種邏輯來,但是,訓練出來的東西,也無法用邏輯去解釋,而且這是不是人工編出來的代碼。

對於「危害」的定義,倒是可以用窮舉法編程羅列出來,就看你羅列的全不全,而且機器人能不能有充分的信息可以判斷一個行為是否有危害。

第二條:機器人必須服從人類的命令,但命令違反第一條內容時,則不在此限。

同樣,要讓機器人能夠判斷什麼是「人類」,要能夠識別人類的「命令」,這一點,似乎好像還可以做到,現在語音識別都已經發展得不錯了,當然,這靠的是機器學習,而不是編程實現。

第三條:在不違反第一條和第二條的情況下,機器人必須保護自己。

保護自己這一條,只要能夠解決第一條里對「危害」的識別,應該問題不大。

總結一下,目前的計算機發展狀況,編程實現「機器人三大法則」是不大可能了,只能靠機器學習搞出近似的東西。

其實,最大的問題,是沒辦法強行讓機器人遵守這三大法則,也就是說,就算你搞出遵守這三大法則的機器人,也總有人能搞出反著這三大法則的殺人機器人:

第一條:機器人裝作不得危害人類。

第二條:機器人裝作服從人類的命令。

第三條:在沒人關注的時候,機器人可以隨機製造事故弄死人類。


這些定律有個前提,人工智慧已經有和人類同等或者以上的智能了。而這些邏輯是作為類似強制戒律的形式,迫使人工智慧必須執行。其實和代碼沒有關係了,基本就是和從小和人說必須守法啊,要信仰神啊,要一夫一妻啊,要穿衣服不能裸奔,差不多的事兒了,只是對人工智慧的約束更強烈而已。

而整本小說其實一直在說這三定律是有問題的,so,最後又有零定律。。。


直接讓機器人關機好了,因為任何行動都有概率危害人類,第一法則根本不能滿足。


記得有一篇小說,人類設定了三大發展,結果「危害」的設定,界定為使個體的基因停止遺傳。

然後機器人考慮到人吃喝拉撒導出走,危險性太高了。於是執行第一法則,使人類免受傷害——它們把人類肉體消滅掉,基因放入基因庫。

其實要制定一套真正利於人類的機器人法則並不難,因為有現成的:

利益和法律。

只要設定機器人追求利益,機器人就是善的。因為法律會對危害他人的、追求利益的行為做出懲罰,簡單的說就是:快速賺錢的方法都寫在刑法里。

如果機器人可以作惡而獲得利益,那麼說明有問題的是我們法律。


我要摧毀傷害人類的機器,而我不能自我摧毀

我已經傷害人類了,我該怎麼辦?

應該會停機吧。。。

靈感來源自新世界的愧死系統


推薦閱讀:
相关文章