「我們對文明所愛的一切都是智慧的產物,所以用人工智慧增強人類智能有促進文明走向前所未有的興盛的潛力。但,前提是能我們保持這項技術有利無弊。」

作者丨馬克斯·泰格馬克(未來生命研究所總裁)

什麼是AI?

從SIRI到自動駕駛汽車,人工智慧(AI)正在迅速發展。雖然科幻小說經常將人工智慧描繪成具有類人特性的機器人,但人工智慧可以涵蓋從谷歌(Google)的搜索演算法、IBM沃森 (人工智慧程序),到自動武器的任何科技。

當今的人工智慧準確的來說應當被稱為狹義AI(或弱AI),因為它被設計來執行的任務範圍狹窄(例如,僅執行面部識別,或只進行互聯網搜索,或僅駕駛汽車)。然而,許多研究人員的長期目標是創建普適AI(AGI或強AI)。雖然狹義AI能在其特定的任務上超越人類,如下棋或解方程,AGI將在幾乎所有認知任務上超越人類。

為何研究人工智慧的安全性?

當前,為確保AI對社會有益而進行的科研可涵蓋諸多領域,如經濟學和法學,以及驗證法、有效性計算、安全性和控制論等這種技術層面課題。如果安全保障僅限於防止你的筆記本電腦宕機或被黑客入侵,就算出了問題也只是給你添點小麻煩。倘若AI系統能夠控制汽車、飛機、心臟起搏器、自動交易系統或電網, 我們就必須保證該系統完全遵照我們的指令,否則後果將不可設想。眼下另一個挑戰是如何防止毀滅性的自動武器的軍備競賽。

從長遠來看,一個重要的問題是,如果我們成功創造了能在所有認知功能上超過人類的強AI,世界將會發生些什麼。正如約翰·古德(Irving John Good)在1965年所說的,設計更有智慧的AI系統本身就是一個認知任務。這樣的系統有潛力執行遞歸式的自我完善,觸發智能爆炸,並遠遠地超越人類智力。通過發明革命性的新技術,這樣的超級智慧可以幫助我們消除戰爭、疾病和貧困。因此,創造強AI可能是人類歷史上最重大的事件。然而,一些專家表示擔心,人類的歷史也會隨著此類的超強大AI的誕生戛然而止,除非我們學會在AI成為超級智慧之前使其與我們同心所向。

有些人質疑強AI是否會實現, 也有些人堅信創建超智能AI對人類必定是有益的。FLI(the Future of Life Institute,未來生命研究室)承認這兩種情形皆有可能,但我們更意識到人工智慧系統具有有意或無意造成巨大危害的潛力。我們相信今日的研究意在防患於未然,使得未來人們受益於AI的同時,規避潛在風險隱患。

人工智慧如何可能製造危險?

大多數研究人員認為,一個超智能AI不可能產生人類的情感,如愛或恨。他們也認為人們沒有理由期望AI有意識地趨善向惡。在AI如何成為風險的問題上,專家認為有兩種情況最有可能發生:

  1. AI被設計執行毀滅性任務:自驅動武器(autonomous weapon)是為殺戮而生的人工智慧系統。若落入惡人手中,這些武器簡簡單單就能造成大量傷亡。此外,AI軍備競賽也可能無意中引發AI戰爭,導致大量傷亡。為了避免被敵對勢力從中阻撓,這些武器的「關閉」程式將被設計得極為複雜,所以人們可能對這種局面失去控制。這種風險雖然也存在於狹義AI(narrow AI)中,但隨著AI智能和自驅動水平的提高,風險也會跟著增長。
  2. AI被用來執行有益的任務,但它的執行過程可能是破壞性的:當AI的目標同我們的目標沒有完全對應時,這就有可能發生。這當然並非易事。試想,如果你召喚一輛智能車將你以最快速度送到機場,它可能不顧一切地嚴格遵從你字面意義上的指令,即使以你並不希望的方式——你可能因超速而被直升機追逐或嘔吐不止。如果一個超智能系統的任務是一個雄心勃勃的地球工程項目,它帶來的負作用可能是對生態系統的破壞,並把人類試圖阻止它的行為視為一個必須解決的威脅。

以這些例子來看,我們對高級AI的擔憂並非在於其可能產生惡意,而是它可能達到的能力。超智能AI將非常善於完成其目標,如果這些目標不與我們的目標形成一致,我們麻煩就大了。正比如,你可能並非對螞蟻深惡痛絕,也沒有踩死螞蟻的惡意,但如果你負責水電綠色能源項目,而項目開發的所在地區有一個蟻丘會因為大水而被淹沒,那隻能說是算螞蟻倒霉罷了。人工智慧安全研究的一個關鍵目的就是要避免將人類置於和這些螞蟻同樣的位置。

為何人們最近對AI安全感興趣?

史蒂芬·霍金、伊隆·馬斯克、史蒂夫·沃茲尼亞克、比爾·蓋茨等許多科技大腕和許多領導AI研究的科學家最近在媒體和公開信中對AI風險表示關心。為什麼這個話題在近期會突然出現在多則頭條新聞中呢?

強AI的成功實現一直被認為是天方夜譚,即使得以達成也最少是幾千年以後的事情。然而,由於最近的突破性研究和許多AI里程碑的創造,在僅僅五年前被專家認為是幾十年後才能達到的技術,現在已經實現。這讓許多專家認真地考慮在我們一生中出現超級智能的可能性。

雖然一些專家仍然猜測類人AI在幾個世紀以後才可能產生,大多數AI研究員在2015年波多黎各會議中預測類人級別的AI在2060年之前便可能產生。由於AI安全研究可能要耗費十幾年才能完成,所以我們應該乘現在便開展這些方面的研究。

因為AI有可能變得比人類更聰明,所以我們並沒有精準的辦法來預測它未來可能的行為模式。我們不能把過去的技術發展作為參考,因為我們從來沒有創造出任何能夠在智慧上超越人類的科技。

事實上,我們最能作為參考的依據便是人類本身的進化史。人類之所以能在今天成為這個星球的萬物之靈,並不是因為我們最強、最快或體積最大,而是因為我們是最具智慧的。如果有一天,我們不再是世上最聰明的,我們還能夠自信對世界擁有控制力嗎?

FLI的立場是,只要我們管理科技的智慧比技術不斷增長的力量更加強勁,我們的文明就會持續蓬勃發展。針對AI技術,FLI的立場是,我們應該在不阻礙AI發展的前提下,通過支持人工智慧安全研究來加速對AI科技的管理能力。

下一期將會分享關於人工智慧的一些誤傳,敬請期待。


原文來源丨the Future of Life

圖片來源丨網路

編譯校對丨冰塊@智言

本文僅代表作者觀點,不代表智言科技觀點。


推薦閱讀:
相关文章