看了這個漫畫,突然在思考人與機器人的關係


題主你想多了。

按照《生命3.0》的論述,如果機器人具備了人類的情感跟智能,那麼他就是標準的生命3.0,而人類目前屬於生命2.1。生命3.0具備非常充分的軟體跟硬體自由,可以自由地塑造自己的軟體跟硬體,即對應人類的靈魂跟肉體,他們將具備不死之身,不可能被殺死

到那時,機器人討論的將是殺死人類或者圈養人類,算不算殺人;整個世界的規則秩序、倫理道德都將由機器人來制定


很有趣的問題!

題主的問題是,當機器人有了人類的感情和智能,殺掉機器人算「殺人」嗎?「殺人」暗指了什麼呢,是「故意殺人罪」嗎?

其他答主指出,機器人具備完善的軟體和硬體體系,他們是不可能被殺死的,我對此暫且不置可否,但根據我國刑法的有關規定,「由於生命權利是公民人身權利中最基本、最重要的權利,因此,不管被害人是否實際被殺,不管殺人行為處於故意犯罪的預備、未遂、中止等哪個階段,都構成犯罪,應當立案追究。」也就是說,如果你指的是殺機器人是否是犯罪的話,如果機器人是合法公民,具有生命權,那麼,是的

那麼我們不得不退回到前一步,我們要思考,智能機器是人嗎?或者說,我們起碼應該思考的問題是,機器人的生命是生命嗎?


對此人工智慧學屆和哲學界都有不同的答案。

但無論如何,大家認可的事實是,人是物質實體與精神主體的統一體,人是被「生」出來的,而不是被「造」出來的。

我國的法律認為生命權是自然人才享有的權力,自然人為「自然狀態下出生之人」。

那麼我們對機器人是否具有生命權的疑問可以追問到下面的問題:

  • 機器人之誕生和人之誕生有何區別?
  • 機器人是否具備人的人格?
  • 如果機器人具備人的人格,我們是否應該立法保護它?

實際上,在第一個問題上,科學家們就已經陷入了困境。製造有思想和情感的機器人遠不是現在的技術水平可以做到的,儘管部分人工智慧學者對此表示樂觀,但恕我直言,我們離實現這個目標還差的遠。

於是,我們尚不清楚第一個有思想的機器是以何種形態被製造出來的,更沒辦法評價這種「被製造」是否和「人的誕生」具有相同的法律效益了。

於是,我們不如直接嘗試回答第二個問題,我們是否承認機器人具備人格?

有人認為討論機器人是否具備生命只是語義學問題[1],但實際上,如果我們不僅是想在哲學上思考這個問題,而是要在法律層面對機器人的權力和義務做出約束,就必須想清楚這個問題。

如果你說機器人不具備生命,那它想必不具備人格。但如果機器人能夠產生了自我意識,我們時候就必須承認它具備生命呢?

那麼問題來了,我們怎麼判斷機器人擁有自我意識?

這樣的討論可能很尷尬,特別是在強人工智慧誕生之後,Kevin Warwick曾經舉過這樣的例子

於是你可能沖著機器大叫:『人類尚未在哲學上證明你們機器能有和人一樣的意識,所以你們不能支配我。』機器可能根本不能理睬你的叫嚷。……大概牛也在用牛的語言說『我們牛還沒在哲學上證明你們人有和我們一樣的意識呢,所以你們不能命令我。』[2]

好在哲學家們趁著機器人還沒奴役人類就已經開始思考這個問題了。

作為人工智慧的從業者,我大概是不相信現階段的人工智慧具有意識的,儘管它可以通過一些小把戲欺騙杞人憂天的哲學家們。

在我看來,人工智慧擁有意識,至少要在它形成一套自己的「因果觀」之後,它擁有了屬於自己的因果觀,學會了通過先驗知識理解事物之後,才能談論它時候具備意識。

其實某種意義上,一旦人工智慧具備意識,我們可能就不得不地說它具備智能了。

最後一個問題,我們是否應該尊重機器人的人格呢?對此不同學者持有不同意見。

人工智慧學界既有消極的看法,周志華認為強人工智慧「不能做、不該做「,「即便強人工智慧是可能的,也不應該去研究它「[3]。顯然,這類看法是不願意承認人工智慧的人格的正當性的。

與之相反,朱迪亞·珀爾在對於「我們能製造出會思考的機器嗎?」和「我們應該製造會思考的機器嗎?」的回答都是「YES」[4],並且,他認為

一旦我們製造出了道德機器,許多杞人憂天的觀點就會隨之消失,變得無關緊要。我們沒有理由不去製造這種能比人類更好地分辨善與惡、抵禦誘惑以及權衡獎懲的機器。[5]

在哲學界,哲學家們對人工智慧的發展普遍抱有憂慮,有學者認為「如果我們把機器人看作人、當作人,那就會產生一系列的嚴重社會後果。「[6],哲學家們似乎不僅不願意承認機器人的人格權,甚至極力阻止科學家們發明出這樣具備能夠獨立思考的機器人。


最後,我還想討論一下「機器人會不會死亡」的問題。

我們可以想像未來如果機器人真的誕生了,應該是像蟻羣這樣的羣體意識,吳志雄在小說《黑雲》中描述了這樣的場景:一個外星的硅基生命因為無法認知人類的個體意識,以為人類和自己一樣一個星球只有一個意識而產生了諸多誤會。

機器人是否會和文中的硅基生命具有相同的特徵呢?

從這個意義上講,機器人的確不會因為某個硬體的損傷而失去生命。但是,正如漫畫中所描繪的那樣,當人工智慧具備了情感,它是否會審視自己的生命呢?

它時候會得出自己的生命不值得過的結論,而選擇自殺呢?

參考

  1. ^Norbert Wiener:人有人的用處
  2. ^Kevin Warwick:機器的征途——為什麼機器人將統治世界
  3. ^周志華:關於強人工智慧
  4. ^朱迪亞·珀爾:為什麼
  5. ^朱迪亞·珀爾:為什麼
  6. ^林德宏:維護人類的尊嚴 ——人工智慧技術觀的思考


如果觀念沒到,就不算。

想想與人類關係親密的寵物狗、寵物貓,它們有感情有智慧,與機器人比起來是真正的生命。看看人類社會裡殺掉寵物的人,並沒有被判罪。以此類推,倘若機器人有感情和智慧,人類社會潛意識裡仍然認為它不屬於生命範疇的。所以,殺掉機器人不算「殺人」。

那何時殺掉機器人算「殺人」呢?

如果要這樣去判定殺人罪,人類社會意識必然到了一個新的層次,即承認機器人也是人類一部分。那麼,哪種場景,殺了機器人會被判殺人罪呢?

第一種,機器人擔任非常重要的崗位,比如工廠管家機器人、機器人交警、警報機器人等。一個人殺掉這類機器人,會導致一系列不可預知事件發生。假如殺掉一個工廠管家機器人,工廠運轉可能會崩潰,會給工廠帶來巨大的損失。再比如殺掉機器人交警,會影響交通秩序,也算殺人罪。

第二種,機器人和人類組合為家庭。有的人願意和機器人組成家庭,彼此建立了很深的感情。突然有一天,機器人被殺了,會給另一方造成巨大的打擊。這時候殺掉機器人,受害人可以去依法控告殺人罪。

以上兩種情況發生的前提,是人類思想上已經發生了翻天覆地的變革。在那時候,認同機器人屬於人類一部分的觀念,就如同古時候人類認為地球是中心現在認為太陽是中心一樣司空見慣。


怎麼纔算「殺掉」機器人呢

也許你眼前的機器人只是個輸入輸出工具,核心部分的程序(智能)和數據(記憶)都存儲備份在雲端;

輸入輸出設備破壞了,買個新的就可以;

程序沒了再下一個,而且程序應該也是經常更新的;

最珍貴的應該就是用戶積累的數據了,一朝被刪,估計殺人的心都有了。

所以,殺掉機器人算「殺人」嗎?可能算吧。


很有意思的問題,我認為不算殺人,因為人的本質是社會關係的總和。

機器人顯然不符合這一條件。


推薦閱讀:
相關文章