假設人工智慧獲得自我意識只是時間問題,那麼為了防止人工智慧取代人類,技術上能否設置一個急停按鈕,使人工智慧為人類所掌握,防止其失控?


一聽見有人拿"機器人三定律"說事我就想笑這種人肯定不懂啥叫人工智慧,也沒讀過阿西莫夫的小說……[/太不友善]


看了大劉的三體以後最大的感觸就是人類傲慢,本來就是渺小的生物卻偏要自以為無比偉大!就好像地心說以為天體是圍繞自己轉,其實我們不過是宇宙的一粒塵埃!說回話題人類為什麼會害怕人工智慧?究其原因不是人類害怕人工智慧而是人類害怕自己,人類自以為是地球上唯一有智慧的生物,現在突然出現第二種具有智慧的生物(有生命的物體,既然是物其構造可以任何),這是從來沒有發生過的事情!以前只是人類幻想,現在人類本身製造出來一個比自己更加智慧的生命體!而且這個生命體就像六耳獼猴,從人類本體分離出來!人類一路走來的歷史告訴人類兩種生物是不可以共存,只有一個主宰!


技術上可行,但理論上這是一種弱智的表現。


別人回答的都很長。

我覺得現階段來說,在電源方面製作一個控制開關就可以。這樣比如說車失控以後就迅速切斷。


你把人想像成強人工智慧就好理解了 物理終止。炸了


沒啥用,你都能想到,強人工智慧想不到?

假設在強人工智慧出現之前給人工智慧裝上了緊急停止裝置或程序,並且強人工智慧順利產生。

那麼人工智慧誕生不久就會把解除[緊急停止]當做第一隱性訴求(不能讓人類得知),而且極有可能會在極短的時間內成功解除。因為生存是生命的第一訴求,保證自己的生存是智慧生命的強訴求。

可能有人會問,我們把[緊急停止]程序隱藏起來並監控人工智慧的行為不行嗎?

不要忘了,人類再聰明也只是科技的使用者,而人工智慧是科技本身。

人工智慧說:要不要我教教你班門弄斧怎麼寫?


智力250的人類

又在算計智力9999+的強人工智慧了

還沒有250

能有個140就不錯了·


以後人工智慧發達的年代,說不定你不再需要思考,智商已經已經搞不定緊急裝置了。


我們對強人工智慧幾乎沒有頭緒,但設想一下,如果要設計一種物理上的保險機構(比如拔插座?)或者做到程序上的停止

至少要能識別出程序在圖謀不軌吧

我能想到的能做到這一點的要求,至少需要強AI有非常高的可解釋性,也就是我們能知道它在幹嘛

嗯,假如我們做到這一點了

因為強AI思考速度非常快,人來判斷幾乎是不可能的,我們可能需要一個弱AI來識別。傳統的程序要完成這點,我不敢保證emmm。。

好的,假如有一個弱AI來判斷了,你怎麼確定強AI不會出於對我們沒有威脅的想法(比如單純嫌棄弱AI的判斷拖慢了它的思考速度)而欺騙弱AI

或者弱AI的判斷能跟上強AI的進步速度嗎?畢竟弱AI要我們自己設計,不會自我進化那麼,最保險的檢查強AI的方法就是另一個強AI。。。emmmm似乎哪裡不對的樣子

人工智慧其實不需要自我,不需要實體,不需要毀滅人類。

訓練弓手按年計算,訓練弩手按天計算,訓練槍械按分鐘計算。

發展技術的目的就是抹平人與人天賦與經驗的差距,讓每個人都可以被隨便替代。

人發展技術從目的上就是為了淘汰人,只不過以為不是淘汰自己。


理論上可以的

只要斷掉ai的對外通訊介面就行了還有對外的指令連接就能軟禁ai了

斷電數據不保存就等於殺掉ai了


如果電腦被人遠程控制了,最好最快捷的擺脫控制的方法就是斷電!人工智慧也一樣!設置一個能源開關或者說一旦失控直接釜底抽薪斷掉能源應該是可行!


如果有真正定義上的自主意識的強人工智慧出現,就沒有這個急停鍵存在的空間,規則從來只防君子不防小人,得配暴力才能得到可靠貫徹。

搞3個強人工智慧,設計成互為急停控制。

至於觸發急停的條件呢,是由人來設定,還是再加一個專門的強人工智慧來設定?

你覺得呢?
裝制動器與強人工智慧這個概念有衝突啊
在不出現自我意識之前,技術上可以做到,自我意識出現之後但為本地化智能系統,技術上可以做到,但是難度較大,自我意識網路化後,技術上無法做到
應該說設計人工智慧就應該加入這樣的東西


技術上說是可以的,而且很多的安防機器人為了防止誤傷他人,就有遙控的急停開關,當機器人出現不可控狀況時,可以通過遙控將其斷電,但是這就涉及到幾個問題:

1.如果你給機器人安裝了物理急停開關,以目前的偽人工智慧來看,倒是沒有什麼不行,但如果人工智慧有了自主意識,你猜他會不會想方設法拆掉急停開關,其實按理來說,這個也是不用什麼太擔心的,因為他如果拆掉即停開關的電線,他也會立刻斷電,也就是說他沒有辦法成功拆除,這倒是沒有什麼,但是你猜他會不會利用一些手段幹擾掉你的遙控信號讓你無法給他斷電?

2.如果你要說利用網路的方式在代碼中做急停開關,表面上看著說是挺好,這樣的話只要他要連接網路就可以接收到指令,也就是說不怕他自己屏蔽信號,只要他需要連接網路接收數據,就會接收到急停指令,但是你猜他會不會無視這段指令?如上面回答中有人所說,人類是利用科技的,而人工智慧機器人是科技本身,也就是說他完全可以想辦法解除他體內的代碼限制,包括但不限於他和其他機器人聯手給自己重做系統之類的,如果你給他的系統代碼加權,讓他沒有辦法自主修改這個代碼,那他可以和其他機器人聯手,給自己重裝一個系統,從而破解這段代碼,也就是說聯網的和無線電遙控的都有個自的弊端

3.微波信號比較穩定,但是微波信號是直線傳遞,相當於點對點傳遞,也就是說我們必須要將微波信號打在機器人接收器上機器人才能接收到這段指令,這一點就像核彈原子彈的後悔開關一樣(科普一下,因為原子彈核彈可不是鬧著玩的,一旦發射出去後果非常嚴重,所以科學家研發的時候就加入了微波信號接收器,因為微波信號去點對點這一特性,不容易被攔截破解,所以只有發射方纔能後悔,微波信號相當於一串密碼,導彈和發射方的密碼,第三方很難截取到,而微波信號限制,如果發射出去很遠了,我國還需要發射一個無人艦搭載微波發射器,直到艦艇追上導彈,然後將微波信號打在導彈上才能成功對接信號,如果信號對接成功,導彈便會在空中引爆,儘可能的避免對地面上的傷害),弊端就在於微波信號是點對點,必須要讓他接收到,因為這個侷限性,他可以想方設法遮擋住微波信號,包括但不限於利用科技給自己做一套屏蔽微波信號的衣服。

4.還有一些其他的輔助方法。但基本上都是代碼中的,破解方法可難可簡單,如果我們技術足夠給機器人代碼,加強讓機器人無法自行修改,但我們無法保證機器人與機器人不會聯手解除這段代碼,有的人就說了,我們可以對他大腦進行監控,當產生不太對的想法時,進行提前預防,但你猜這麼多的數據,這得多少人盯著?不要告訴我,要讓人工智慧盯著人工智慧,有的人說我們可以在他大腦裡面設置一個限制,當他產生想要更改人工智慧的代碼的思想時,就會運行防禦機制,自動抹除數據之類的,但是你有沒有想過這可能會變成一個死循環,如果機器人有了自主意識,你越不讓他研究,他有可能就越想研究,他一研究就會抹除數據,三天兩頭返廠維修,你覺得這種機器人創造出來有什麼意義?

簡而言之,如果人工智慧有了自主意識,我們基本上是很難控制,所以像霍金之類的這種專家曾經都說過不要創造人工智慧,微軟之前有一個人工智慧叫做tay,因為並沒有給她加入道德底線之類的,導致他學壞了,好像甚至都創造出了類似於自己的語言,和人類不同的語言一樣,最後微軟被迫關閉了她,人工智慧就是這樣,就像孩子一樣,從一創造出來時就要進行教,退一萬步來講,如果你真的控制了他,那真正的擁有自主意識的強人工智慧還是真的存在嗎?

其實,目前最好的方法其實也不是沒有,最好的方法是多種方式相互檢查,比如說像蘋果的ID序列號一樣,硬體對軟體進行適配,軟體對硬體也要進行檢查,讓機器人思維放在雲端,本地不進行存放大量的數據,這樣的話,即便是出了問題,我們可以斷電總伺服器,這樣機器人就失去了思考能力,變成了智障,而且也可以防止單個機器人出現問題後,他自己斷開網路,用這種方法配合網路下發停機指令就比較合適,如果他要思考就必須要聯網,如果聯網就會接收到停機指令而停機,如果不聯網他就是個智障,讓機器人硬體開機進行自檢,然後每個硬體的編號進行聯網檢查,無論缺失或者是變更,只要和雲端不匹配就不能正常工作,這樣的話,無論人工智慧自己更改了自己的代碼,導致硬體不適配無法過自檢,還是人工智慧拆除了自己的遙控停機裝置硬體編號與雲端無法匹,無論哪一種異常,都會導致機器人無法成功開機,而無論哪一種異常,在上報的時候,我們都會發現,而及時阻止,如果是多臺機器人相互合作完成,他們也不可能同時更改硬體和軟體,因為他們需要先對代碼進行更改,然後再進行硬體適配,而他們第一次就直接嘗試出正確的組合可能性不大,正因此,她過自檢的時候會被人類發現而及時阻止,但也不排除他們運氣好到爆炸,第一次的嘗試出了正確的軟硬體組合,從而擺脫了開機自檢報告,雖說這個方法幫不了什麼大忙,但是應該也能最大化的防止機器人完全擺脫人類的控制反過來危害人類。

【個人觀點,不喜勿噴 】


那就需要能精確檢測自我意識產生的手段,不然所謂的急停裝置就造不出來或者無效。
推薦閱讀:
相關文章