資本實驗室·今日風險觀察

聚焦前沿科技創新與傳統產業升級

| 編譯:王進 原作者:Luke Dormehl

現在是2017年,科學技術發展得相當棒。它幫助我們活得更久、更健康,有更多的教育和娛樂,而人工智能和基因編輯等工具則爲解決重大問題提供了新的途徑和方法。

但是,並非所有技術都會帶來好的結果。正如法國哲學家保羅·維利里奧所說,“船的發明者也是沉船的發明者”。換而言之,無論技術有多好,總有一些事情可能會出錯。

儘管聽起來像作家邁克爾·克萊頓(美國著名暢銷書作家和影視導演、製片人,著有《火車大劫案》、《侏羅紀公園》、《剛果驚魂》等多部著名小說)的科幻驚悚小說中的場景,以下六種技術真有可能摧毀我們所熟知的生活。

1.超級人工智能的崛起

啓示錄:人類可能在這6種技術災難中滅亡

超級智能和技術奇點的到來是基於以下假設:人工智能有一天會擁有比我們人類更強大的能力。與受生物進化限制的人類相比,機器能夠以不斷增長的速度來改進和重新設計自己,並變得越來越聰明。在這一點上,人類社會將不可避免地發生巨大的變化,而這些變化有可能給人類帶來生存風險。

我們很難預測比人類更聰明的實體會幹什麼,但最終結果可能是機器消滅人類,就像電影《終結者》中的場景一樣,人類被“天網”所奴役。

在往前思考,如果把人工智能和納米技術結合起來,我們又可能會得到什麼?

2.把世界變成“灰蠱”

啓示錄:人類可能在這6種技術災難中滅亡

“灰蠱”(Grey Goo)一詞來源於納米技術之父埃裏克·德雷克斯勒(K.Eric Drexler)的代表作《創造的發動機》(Engines of Creation),而這個詞很少與積極的一面相聯繫。

所謂“灰蠱”指的是一種由納米技術所帶來的災難性事件,即有吞噬物質能力且能夠自我複製的納米機械羣失去了控制,在無限制的自我複製過程中會不斷吞噬星球上所有的物質,結果就是整個星球乃至星系都被納米機器人所覆蓋,並且變成一片灰色的(Grey)荒漠。

在《創造的發動機》一書中,埃裏克·德雷克斯勒寫道:“想象一下,一個漂浮在一瓶化學試劑中的複製體,不停地複製自己……,第一個複製體在1000秒內完成一次自我複製,這兩個複製體在接下來的1000秒再複製2個,4個再複製4個,8個再複製8個。10個小時後,新的複製體不是36個,而是超過680億個。不到一天,它們的重量會達到一噸;不到兩天,他們的重量將超過地球;在接下來的四個小時內,它們的重量將超過太陽和所有行星的總合——如果這瓶化學試劑不會乾涸。“

這個想法是如此的令人震驚!這促使英國查爾斯王子呼籲皇家學會進行研究。雖然現在,自複製的納米機器技術還不存在。但是明天呢,總會有明天!

3.地球資源的耗盡

啓示錄:人類可能在這6種技術災難中滅亡

日益增長的人口壓力與具有爭議的自然資源獲取方式(例如水力壓裂技術的採用),可能會加劇災難的發生。儘管全球都在推廣使用可再生能源,科學家對殖民其他行星也越來越感興趣,但以某種方式耗盡自然礦產資源肯定是一個值得警惕的風險因素。

4 .大規模網絡攻擊

啓示錄:人類可能在這6種技術災難中滅亡

網絡攻擊破壞的不僅僅是實體,還會造成政府動盪、經濟崩潰和社會混亂。從近年來我們所經歷的大規模黑客攻擊中,可以清楚地看到規模化的協同黑客攻擊是多麼地具有破壞性。

網絡攻擊可能會污染水廠、關閉能源,導致各種混亂;攻擊也可能導致敏感而機密的信息泄露,從股市、銀行賬戶上抹去數萬億美元,或者摧毀通訊網絡。

加之人類搶劫與掠奪的“惡”的一面,一旦社會道德層面的約束消失,這時並不需要通過一個惡棍持有威脅世界的核武器來索要贖金,就可以導致全球難以想象的混亂。

5.實驗技術錯誤

啓示錄:人類可能在這6種技術災難中滅亡

隨着諸如瑞士的大型強子對撞機(LHC)和紐約的相對論重離子對撞機(RHIC)等項目的開展,科學家對解開深層次的物理奧祕非常有興趣,包括物質、暗能量及其他高能實驗。

不需要各種驚悚小說家的描述,這也足以引起人們對末日場景的關注,例如有意或無意的人造黑洞、不穩定的“奇怪的”粒子、假真空狀態,或者其它什麼東西。

發生這種情況的可能性是存在的,儘管可能性非常非常小。英國牛津大學物理系教授Frank Close將這個情景比喻爲“連續三週獲得彩票大獎”的可能性。他認爲,問題在於人們相信自己有可能連續三週獲得彩票大獎。

6.高科技武器戰爭

啓示錄:人類可能在這6種技術災難中滅亡

遺憾的是,從技術角度來看,高科技武器清單上已經有了“核武器”的大名。由於擁有大量核武器,人類目前有能力結束地球上幾乎所有的生命。目前,擁有核武器最多的是美國和俄羅斯,兩國共擁有大約15000枚核彈頭。

最近,戰爭中正在上升的另一個威脅是全自動武器系統的出現。2017年,包括埃隆·馬斯克和穆斯塔法·蘇萊曼(谷歌人工智能公司DeepMind的聯合創始人)在內的116名世界領先的機器人和人工智能公司的領導人聯名發佈了一封公開信,向聯合國呼籲: 禁止發展致命性自動化武器,並阻止高科技軍備競賽。他們認爲致命性自動化武器可能會導致第三次戰爭革命。一旦投入使用,它會以遠超我們預料的速度改變戰爭,使得武裝衝突迅速升級到遠超以往的規模。

相关文章