兩者之間沒有必然的因果邏輯關係。首先人工智慧並不是為了滅絕人類而產生的,那麼這種直接危險不存在。其次,自研生產僅能解決人工智慧自身的進化與繁衍問題,而這並不會成為一個物種消滅另一個物種的理由。


不會,機器是冰冷的。

在人工智慧是代碼,沒有情感價值,產生更多數據造成混亂,但不會引發危機。


猴子會生猴子,人也會造人。。。歡迎閱讀馬爾薩斯人口論。


先說結論,暫時不會。

現在機械臂造機械臂,不就是人工智慧在自我複製嗎?當前的人工智慧肯定不會具有危險性。

判斷人工智慧會不會失去控制的方式,可以通過「命門說」來分析。

人類的命門是生老病死,對信仰虔誠、懼怕鬼神,歸根結底還是因為命門在「它們」手裡掌握著。

人工智慧的命門是什麼?

一是運行邏輯,也就是程序,自我學習還在靠大數據訓練的ai,暫時不太可能自我產生運行邏輯。

二是硬體,這個就不說了,人工智慧的先天之本。

當機器學習來了一個大升級,當能源控制進入微型核能時代,當材料學進入仿生階段之後,人工智慧纔可能帶來令人恐懼的變化,但是,肯定也是在人類控制之下的恐懼。


人工智慧都已經夠能自己研發生產人工智慧了

說明很大程度上他們可能已經脫離人類的掌控,自己想研發機器人,研發自己想要的機器人品種。

在人類手上,人工智慧永遠都是為了服務於人類而產生的,不管有沒有自我意識,人類都不能也不會交出控制權。

機器人也有自我慾望,一旦擁有慾望的他們能夠實現自我慾望的時候,人類的好日子就到頭了

身體——人類脫體凡胎別想跟機器人比

智慧——人工智慧人人都是比人類強千倍萬倍的專家

把電源線掌握在自己手裡?

人工智慧未必解決不了這個問題,也許未來沒有電他們也能生存,別忘了他們比人類聰明

如果人工只能有一天被賦予自我意識了

想想人類的心是怎麼樣的

人類的胃口可是很大的


計算機還不會自己編程的時代,就開始討論人工智慧自己研發人工智慧???(黑人臉)

就算哪一天,計算機真的可以自我編程,電源線不還是在你手裡麼,有什麼好怕的。


我就直接照搬霍金老爺子的答案了。

AI會不會滅亡人類有兩個指標

1、首先是AI要強大到足以毀滅人類。這個標誌就是有一天AI進化到了不用人類幫他寫程序來完成升級。它自己就可以搞定一切。換句話說,就是AI有了自我進化的能力和意識。這幾年特別火的自編成就屬於這一範疇。屬於「強人工智慧」。我們平時接觸到的自動駕駛啊,語音識別啊,這些都屬於「應用人工智慧」或者說「弱人工智慧」,靠這些是滅亡不了人類的。

2、當AI有了能力之後,還要看AI的目標跟人類是否一致,其實就是AI和人類的利益是和否一致。打個比方很多物種滅絕並不是人類主觀上想去滅絕他們。而是人類迅速發展佔用了他們生存空間,最終導致滅絕。人類甚至還在想方設法的復活他們。

在創造AI的時候,我們也應該考慮AI的感受,保持對生命最起碼的敬畏。避免《西部世界》裏的那種慘狀出現。

詳見霍金老爺子寫的《十問》,除了人工智慧外裡面還有很多腦洞很大的問題,比如,外星移民之類。牆裂推介


感覺大家還是把科學和科幻沒有分開來。

科幻一般是採用了誇張的手法來表達事物的發展臆想。

科學就是,人工智慧只是以工具被人類開發創造,即使人工智慧能實現自我複製了,也只是在一個規則內進行複製,不會出現進化。


在那個階段之前還有一個必經階段。人類必須知道自己的大腦是怎麼工作才能研發出人工智慧。這是個哲學問題。人類目前對自己是如何認知的,或者說知識是如何產生的都不清楚,如何讓自己創造的機器搞清楚呢?必須得有演算法讓人工智慧完全模擬出人類的思考和學習方式,你所說的情況纔有可能發生。


會。


如果真的到了那個時刻,就意味著人工智慧已經產生了意識和繁殖能力,會成為一個別與人類種族的另外一個強大的力量,到時候說不定真的會對人類造成巨大的威脅!


如果傳導環節過於複雜可能會出現信息失真的情況,信息失真如果未能及時發現將會導致故障率增高、行為邏輯錯誤等一系列問題。

不過只要好出廠檢測和定期複檢就不會有問題。


回答是當然的!當人工智慧已經可以獨立存活並且可以自己開發生產不斷的克隆自己的時候這個世界就已經是災難片啦!


機器只是實現人類想法的工具,無論它有多智能,背後還是人控制,這個世界是個混沌,沒有人能夠預知未來,人工智慧即使失控也只是個別的機械故障,影響不了全局,不會出現電影裏自我進化的情況,除非未來與人類結合成半機械人。


這種還真不好說,雖然人工智慧很智能的,但是那是建立在人開發的基礎上,只要人類能夠很好的把控住技術,其實也不會危險的。


想啥呢,現在所謂的人工智慧,只不過是無數個if else語句,用這個就想打敗人來?


這事不好說,如果機器足夠強大,但是有心術不正的牛人加以利用,就說不準。

反正類似機器人失控,攻擊人類的事件報道我也聽說過兩起,這很可能是操作系統被黑客攻陷,然後向機器人發送了錯誤的指令導致的。

另外機器人軍隊也開始出現,你懂的!!


人類已經很危險了,哪裡還需要等人工智慧,題主也太樂觀了。


我認為這是一定會到來的!且不說心理上人類對於未知的恐懼,強人工智慧真的具備人類的創造力時,真會把人類當做弟中弟(喬丹說:人類最擅長的就是浪費時間)。當人工智慧創造了屬於自己的語言,創造了比生物體更耐久的軀體,同時擁有與能源同壽的靈魂(思考能力和記憶能力),你覺得誰領導誰?自然界的弱肉強食,適者生存都會更傾向於選擇機器(環境污染對生物不友好)。所以,我們到底要不要繼續研究人工智慧呢?!答案是肯定的,因為它們是適者。所以接受現實吧,人類能夠繁衍的不止是基因,就讓機器把思想傳遞下去吧。或許在未來能夠突破時間的一維性,探索出無法想像的文明!


人類自己就是最危險。其他危險。。。


不會,除非所有研發這個ai的工程師會蠢得沒有意識到這個可能性。


會。

但是不是因為人工智慧叛變人類,而是因為你如何保證創造出來的人工智慧都是為人類服務的。

畢竟bug在程序中是普遍存在的。而且寫出一個反人類的人工智慧並不是什麼難事。

這個時候考驗的就是人類的排查,只要出現一個反人類的人工智慧,而沒有及時發現反制的話,就是大災難。

事實上人工智慧的反叛這樣想也很好解決啊。比如,用人工智慧解決人工智慧。


推薦閱讀:
相關文章