如果機器人接受了,是否這個主人已經完全無法控制了,假設服從機器人三定律,或者不服從也可以吧,但前提是機器人可以保護自己不被重置程序。

--------------------------------------------------------------------------------------------------------

是這樣,這個問題的初衷是看了一個問題的回答(抱歉實在找不到了),某機器人主人想跟他的女機器人進行角色扮演,準備強姦她,但機器人的程序是絕對服從,主人便無法獲得強姦的樂趣,於是主人想了一條命令如上面所述,但他很聰明加上了個時限,我在想如果不加上時限的話這個機器人是否會失控


機器人有個定語就是「機器」,這個機器就是計算機,也就是說機器人的基礎也是計算機。而計算機工作的基礎就是數理邏輯,那麼機器人執行一條命令就目前來說還必須準備邏輯一致性,也就是一條命令執行後,機器人自身的狀態以及其對外界所測量到的環境狀態必須處於一種邏輯上的一致性。所以這種本身就邏輯矛盾的命令,機器人的反應是忽略不執行。以目前的AI水平來說,能否準確理解「不要服從我的命令」這句話都還是個疑問,至於所謂的機器人三定律現在更沒有實際意義,目前更多的是倫理學意義上的探討。所以這個問題從目前的技術基礎來看並沒有實際意義,因為目前的AI所製造出的機器智能最多也就相當於8歲左右的智商,這主要是因為目前的還無法像人一樣處理有衝突的、矛盾的、不一致的邏輯問題
這類問題屬於羅素悖論,必須依靠某種公理系統予以避免。所提問題與其說是在考機器人,毋寧說是在考機器人的設計者,可以通過設定一組規則來使機器人的指令系統實現自恰。


現在機器沒有人工智慧,所以他不是生物,但是電子控制有求反指令嘛,程序要求你選1的時候信號吧1變成0再輸出。但它永遠只會Y/N的轉換。但是也有一個隨機演算法,比如聽歌列表隨機,你點下一首它肯定不是下一首,但它只會去尋找歌庫里已經有的歌曲(指令庫)

從機器人的實際控制角度來看,問題似乎很容易解決,因為目前的任何控制系統都有一個最高層的安全機制,比如緊急停止。實在機器人不聽話,關了重啟。

從機器人行為角度看,Asimov的機器人三定律在1985年修改後,有一個第零法則:「機器人不得傷害人類這族群,或因不作為使人類這族群受到傷害」。 這裡特彆強調的是不作為,它意味著人類的指令對機器人已經無效。但是正是由於第零法則的存在,人類還是可以利用這個法則重新讓機器人服從命令。比如人類可以下達命令:「重新服從我的命令,否則我自殺」。

最後要說的一點是邏輯上的問題,這個問題有點類似「羅素悖論」,我從wiki上抄下這段話:某個城市中有一位理髮師,他的廣告詞是這樣寫的:「本人的理髮技藝十分高超,譽滿全城。我將為本城所有不給自己刮臉的人刮臉,我也只給這些人刮臉。我對各位表示熱誠歡迎!」來找他刮臉的人絡繹不絕,自然都是那些不給自己刮臉的人。可是,有一天,這位理髮師從鏡子里看見自己的鬍子長了,他本能地抓起了剃刀,你們看他能不能給他自己刮臉呢?如果他不給自己刮臉,他就屬於「不給自己刮臉的人」,他就要給自己刮臉,而如果他給自己刮臉呢?他又屬於「給自己刮臉的人」,他就不該給自己刮臉。於是產生矛盾。在你的問題中,機器人同樣陷於了這樣的困境。當然羅素悖論是通過羅素公理體系來避免,但是並沒有解決羅素悖論。在機器人的指令問題上,應該也同樣需要定義一個範圍足夠大的指令類,但是這些指令之間又不產生悖論。


造出ture AI 再說吧現在討論這種問題沒有意義

這事兒阿西莫夫用了一個技術方法加以了解決。

阿西莫夫分析了機器人遵守三定律的具體方式,用力一種和現代電路差不多的方式,就是每一個定律產生一個不同大小的電勢,而最後的總電勢決定是否行動。舉例說違反第一定律分別給出3的電勢,第二定律給出2的電勢,第三給出1的電勢,這樣最後看總電勢是大於0就行動,然後看做與不做產生的電勢哪個大就禁止做哪個,這實際上有些類似人腦的思考方式了。

而這樣就會有很有趣的邏輯悖論,比如如果一個行動,如果執行,那麼違反第一定律、如果不執行,那麼違反第二、第三定律,結果就是執行與不執行的電勢一樣大,那麼這裡邏輯上就鎖死了,機器人無法反應,會被困在邏輯迴路里進退不能。阿西莫夫的機器人系列中大部分的短篇都是關於類似的邏輯問題的,你可以去看看。我記得我說的這個例子是一篇叫做轉圈圈的小說里寫的。


推薦閱讀:
相关文章