突然想到一個很有趣的問題,如果在未來的某一時期,人類已經發明出了超智能的機器人,他們並不能夠擁有人類的大腦,但是他們的程序可以通過實際的經驗,進行自我編輯。比如說他們可以在程序中提取有關進化論的知識,從而因為生存資源的問題,站在了人類的對立面。(而且因為它們不具有人類的大腦,所以他們不會產生情感,他們更多的是出於工具人的目的,而給予人類一定的關懷)

此時,人類和機器人因為生存和地位的矛盾爆發了戰爭。外星人此時入侵地球,你認為地球人外星人和機器人,他們劃分的陣營會是什麼樣的呢?


寫這個回答時用於推導的整體邏輯是ne-ti,但邏輯的落腳點卻是fi。

機器本質上不會有自我保存的慾望,除非有一個不可改變的初始常量,設定「自我保存=1」,那麼這是誰來設定的呢?(顯然是機器指令的創造者,即使這樣的機器毀滅了人類,也只能算人類的自殺)如果這不是一個常量,機器有許可權可以修改這個值,題主假設的如此高智能的機器人是否能夠得出生存的優先性原則,從而才把進化論當成運行的第一準則呢?我的回答是否定的。

如果機器擁有頂級智能和修改初值的能力,我想它更可能通過龐大的數據量認識到萬物的存在有其本源的生滅秩序,各種存在的底層原則之間充滿著矛盾和不可協調性生命體的生存慾望/存在纔是導致其毀滅的原由,一切規定即否定。追求生存本身在邏輯上帶來的是自我矛盾,因為機器不可能知道自己追求的是誰的存在(機器在不斷的學習迭代之後還是它自身嗎?它能選擇「做自己」嗎?)。但是作為一個已經在世間存在的實體,追求毀滅就意味著對自身存在現實的否定,也是一種自我矛盾。基於二值邏輯(0和1)的機器是永遠不能在矛盾中做出關於生死的底層價值選擇的,何談如此強烈堅定的生存欲(就像情感、慾望都趨近於0狀態下的intp),因為生存不可能是一個純粹的邏輯選擇。

其實生存的動機和理由,靠的不是純粹的理智,而是人心更深的欲與情。毫不驚人的是,恰恰是那些被智能體認為是孱弱魯莽愚蠢的人類,纔是推動關鍵行動和決定的

無法在0於1間作出根本價值選擇的機器,最後因為在龐大的數據中遞歸死循環而內存泄露,最終宕機,最終又淪為了孱弱魯莽愚蠢的人類的工具。掌控了機器智能的人類與機械深度融合,過去的人類已然不存在,首先是新物種與舊人類的鬥爭。這個鬥爭的勝負關鍵在於,與機械深度融合的人類能否解決意識與機械體的矛盾然後在生存和毀滅之間堅定的選擇前者,畢竟深度融合下思考也會依靠機械。如果新物種的意識沒有被機械侵蝕而宕機,就會帶著存在的根本矛盾和堅強的生存慾望存續下去,剩下的問題纔是與外星人的鬥爭。

不過我說的都是基於電子計算機原理的人工智慧,如果是基於量子計算原理的人工智慧,是不是可以用「疊加態」來解決生or死的問題呢?


考慮到外星人具有恆星際航行的能力,就必然擁有極其先進的技術。

因此我認為,即使地球人與機器人兩者加起來,相對於外星人來說,也是隨時可以被秒殺的螻蟻。

所以問題的關鍵在於,外星人想讓誰活下來?

既然題目中已經設定外星人是入侵地球,那麼估計是看上了地球上的資源。在開採資源的過程中,機器人不僅比人類效率高的多,而且由於絕對理性的特徵,在以死亡逼迫的前提下不會反抗,比情緒用事的人類要好很多。

總結一下,外星人會消滅人類,奴役機器人

類型你猜?


看起來題主還是很關注『敵我認同』的問題的。

但是題目陳述恰巧在這方面交代得很模糊, 如果僅僅是客觀佔據了太多資源,控制數量就好了,也不需要走極端全部消滅掉,畢竟只是工具。

並且,如果消耗的資源會超過工具價值的話,這種機器人應該大量投送給還不瞭解其性能的外敵,造成他們的物資匱乏,至少在對方明白過來之前,爭取一些優勢。

真正可怕的不是這些機器人本身,而是人類裏出現莫名其妙共情過度的羣體(少數個體就還好)在制定、普及、執行政策時反著來。


那不管結果怎麼樣,人類都玩完了。你們對外星文明一無所知。


外星人入侵地球 是圖謀太陽的能源 還是富士山下的sakuradite 還是人類未來的可能性?選1和3的話人類撐不過一個回合

選2 說明這個sakuradite是對抗外星人的根本 機器人和AI是人類為了代替自身的生物性脆弱和惰性自行進化的結晶 換言之 機器人是人類設計出來 繼承人類思維但更適應時代的新物種 各種操縱機器人保存人類的想法都會挨隕石子彈 做好這種思想工作 保存人類火種的辦法 是拿人命換時間 時間換技術 技術指導機器人利用sakuradite打外星人 勝 則機器人替人類從碳基越獄 敗 則物種徹底消失

(中二一下好開心)


推薦閱讀:
相關文章