大數據文摘出品

來源:The Atlantic

編譯:蔡婕、Stats熊、周素雲

本文作者亨利·基辛格(Henry Alfred Kissinger)爲原美國國家安全顧問,先後擔任尼克松與福特政府的國務卿。他因爲促成了中美關係正常化爲中國人民熟知。本文出自《大西洋月刊》(The Atlantic)。

基辛格從一位政治和歷史學者以及一位政治家的角度,從互聯網時代,數據對人類的影響談到社交媒體帶來的信息氾濫,大衆缺乏深度的思考,從而引申出對人工智能發展的擔憂。提出關注人工智能的價值觀、思維過程、意識形態的塑造等,呼籲關注技術與人文經驗相結合,共同應對未來的發展。

無論從哲學上還是人類智慧發展上,我們真的準備好迎接人工智能了麼?

三年前,在一個有關跨大西洋問題的會議上,人工智能問題出現在議程中。我本來幾乎要跳過那次會議,因爲它超出了我平常所關心的範圍。但演講已經開始,我不得不在座位聽下去。

首先,演講者描述了一個計算機程序的工作原理,並表示這個程序很快將在圍棋比賽中挑戰國際冠軍。我很驚訝計算機竟然可以掌握比國際象棋更復雜的圍棋。

事實上,在演講結束後的幾個月裏,一個名爲AlphaGo的人工智能程序將徹底擊敗了世界上最偉大的圍棋選手。

當我聽到演講者在慶祝這一技術進步時,作爲一名歷史學家和半個政治家,我陷入了沉思。

什麼會影響機器學習的歷史呢?

機器通過特定的過程獲取知識,他們能將這些知識應用於人類都不擅長的領域嗎?這些機器能學會彼此交流嗎? 如何在新興的選項中做出抉擇?人類歷史是否有可能走上印加人的道路?一系列的問題讓我懷疑我們是否處在人類歷史新階段的邊緣?

意識到自己在這一領域的技術能力不足,我組織在一些在技術和人文領域的老朋友進行了一次非正式對話。很多觀點讓我對人工智能越來越感興趣。

迄今爲止,最能體現出改變了現代歷史進程的技術應該是15世紀印刷機的發明了吧,它促進了人類對經驗知識的探索取代了禮拜儀式的教條,理性的時代逐漸取代了宗教的時代。

個人見解和科學知識取代了信仰,成爲人類意識覺醒的主要標準。知識在不斷拓展的信息庫中得以存儲和系統化。

理性時代便起源於這塑造當時世界秩序的思想和行動之中。

但是,在一場新的、更爲徹底的技術革命中,這種秩序正處於動盪之中。

我們未能充分考慮到這場革命的後果,這場革命的高潮可能是一個依賴於數據和算法驅動的機器、不受道德或哲學規範約束的世界。

互聯網時代 數據的奴隸

在互聯網時代,人工智能只會讓一些問題變得更加尖銳。

啓蒙運動試圖把傳統的真理交給解放的、善於分析的理性人。而互聯網則是通過不斷積累和被操控數據來傳播知識,人類的認知失去了個性。

我們使用數據,卻變成了數據的奴隸。

互聯網用戶強調檢索和操縱信息,而不是將信息的意義進行情境化或概念化。很少有人搜索歷史或哲學。

一般來說,大家搜索與實際需求相關的信息。在這個過程中,搜索引擎算法獲得了預測個人偏好的能力,從而使算法能夠對結果進行個性化處理,並將結果提供給第三方用於政治或商業目的。

社交媒體信息氾濫,卻缺少深度的思考

許多技術愛好者只是使用互聯網來逃避他們所害怕的孤獨。逃避這些壓力削弱了培養和維持信念所需的毅力,而信念只有在孤獨的道路上才能實現,這才創造力的本質。

互聯網技術對政治的影響尤爲突出。小羣體通過互聯網來訴諸他們的不滿,並被社交媒體迅速傳播,使得政府不得不把重心轉移到輿論處理上,打破了政府處理事物的優先級順序。政府領導們忙於平息輿論不滿,卻很少有時間反思和思考政務,從而限制了職業發展的空間。

數字時代強調快速反應卻抑制了反思,它的激勵機制使激進分子凌駕於深思熟慮者之上。它的價值觀是由小羣體的共識達成並傳播,而不是由內省形成的。

人工智能的開始

隨着互聯網和計算能力的增強,海量數據的積累和分析變得越來越容易,人類對數據的理解出現了前所未有的前景。

或許最重要的是人工智能的產生項目——一種能夠發明和解決複雜的、看似抽象的問題的技術,其過程似乎複製了人類的思維。

這遠遠超出了我們所知道的自動化。

自動化處理手段,通過使實現這些目的的工具合理化或機械化,來達到規定的目標。

相比之下,人工智能確立了自己的目標來進行處理。從某種程度上說,人工智能的成就有一部分是由其自身塑造的,因此它本質上是不穩定的。

人工智能系統,通過其自身的運作,在獲取和即時分析新數據的過程中不斷變化,然後在分析的基礎上尋求改進。通過這個過程,人工智能發展出了一種曾經被認爲只有人類才能擁有的能力。

它可以對未來做出戰略判斷,有些基於被接收成爲了代碼的數據(例如遊戲規則),有些則基於它自己收集的數據(例如通過反覆玩100萬次遊戲)。

無人駕駛汽車展示了傳統的人工控制、軟件驅動的計算機與試圖導航的人工智能行爲之間的不同。

駕駛汽車需要在許多無法預料的情況下做出判斷,因此需要提前編程。

舉一個著名的假設例子,如果這樣一輛車被環境逼着在殺死祖父母和殺死孩子之間做出選擇,會發生什麼?它會選擇誰?爲什麼?它會嘗試優化選項中的哪些因素?它能夠解釋它的基本原理嗎?

面對挑戰,它的真實答案很可能是(如果它能夠交流):“我不知道(因爲我遵循的是數學,而不是人類的原則),”或者“你不會理解(因爲我被訓練以某種方式行事,但不必解釋它)。”然而,這樣的無人駕駛汽車很可能在未來10年內在道路上普及。

到目前爲止,人工智能研究僅限於特定的活動領域,而現在,人工智能研究正試圖實現一種能夠在多個領域執行任務的廣義上的人工智能。

在可測量的時間內,越來越多的人類活動將由人工智能算法驅動。但是這些算法,作爲對觀測數據的數學解釋,並不能解釋產生它們的潛在現實。

矛盾的是,隨着世界變得更加透明,它也將變得越來越神祕。這個新世界和我們已知的世界有什麼不同?我們將如何生活在其中?我們應該如何管理人工智能?如何改進它,或者至少防止它造成傷害,阻止最令人擔憂的結果發生。人工智能,通過比人類更快速、更明確地掌握某些能力,隨着時間的推移,過度依賴數據可能會降低人類的能力。

對人工智能發展的三個擔憂

在醫藥科學、清潔能源供應、環境問題等領域,人工智能爲我們帶來更爲廣闊的發展前景。但正因爲對人工智能評判是建立在一個不斷變化和發展的未來,它自身發展結果也就變得模糊不定。

有三個方面需要特別關注:

第一點,人工智能會創造意想不到的結果。像在科幻小說裏就設想了人工智能攻擊創造者的場景。AI可能會因爲缺少人類思維聯想能力而誤解人類的指令,從而變得危險可怕。比如說,近幾年有一款叫做Tay的人工智能機器人。

https://www.nytimes.com/interactive/2018/02/21/technology/conversational-bots.html

它會仿照一個19歲的女孩,用特別友好的口吻與人類聊天。但後來事實證明,Tay作爲一臺機器,它沒法理解設計者給它編好的“友好”和“合理”語言偏好,反而它的語言裏摻雜了種族主義、性別歧視和其他具有煽動性的迴應可能有些科學家會說這樣的實驗計劃不周、考慮不足並導致了實驗失敗。

但是正是因爲這個實驗說明了一個潛在的問題。比如:在什麼範圍下,AI可以理解領會設計者給它發出的指令?有什麼樣的途徑能讓Tay來理解它語言上的攻擊性?用什麼樣的詞彙能讓都可以接受?又是否我們可以儘早的發現並改正這些人工智能在既定框架內的缺陷?又或者讓人工智能自由發展,最終導致不可逆轉的結果?

第二點,在其發展的過程中,人工智能可能改變人類思維過程和價值觀。

AlphaGo通過使用史無前例的走法從而戰勝了世界圍棋冠軍,更何況這些走法前人從未考慮,也未曾成功嘗試過。是否因爲這些走法超過了人類大腦認知?或者人類需要開始學習已經被這位圍棋大師(AlphaGo)證明的下法?

在AI嘗試圍棋之前,人類圍棋玩家不僅僅要尋求遊戲勝利,更是要從中領悟人生的方法論,就像我們所說的棋如人生。但是對於AI來說,只有贏得遊戲這一個目的。

就因爲這樣,AI不需要通過理論學習,只需要用數學的方式不斷優化調整它的算法,從而判斷出一個可以勝利的最優解。

所以AI跟人類在下棋的理念上就完全不同,並因此改變了遊戲的本質和所帶來的影響。是否所有AI都是這樣一根筋的處理方式?

其他的AI項目的貢獻方式是幫助人們解決實際問題。除了那些解決實際需求的問題(比如外面氣溫是多少?),AI是否能研究自然本質和探索生命意義以及引發更深入的問題?

我們是否希望讓孩子通過無約束的算法來確定價值觀?我們是否應該通過限制AI自主學習來保護我們個人隱私?如果是的話,我們應該怎麼做?

如果AI的學習速度成指數型遞增,那我們一定希望加快這種井噴式的學習速度,那麼AI犯錯的概率也會比人類高。

正如AI領域的研究員所建議的那樣,這些錯誤將可能是不可調和的,除非在程序里加入“所得出的結果要合乎情理”的警告。

但是整個學術界都無法對這樣的描述達成一致觀點,難道要讓人工智能自己來決定,它們的意識是否合乎情理?

第三點,人工智能會想盡辦法達到目標,但是不會對它做法的合理性進行闡述。比如在圖像識別、大數據分析、博弈等領域,人工智能已經逐漸超過人類所能做的。

如果它們的計算能力繼續快速增長,它們會形成一套與人類完全不同的思考方式。但到那時候,AI會用一種能讓人類理解的方式來向人們解釋爲什麼那些做法會得到最佳結果麼?

縱觀人類歷史,文明締造瞭解釋周圍世界的方法,比如中世紀向我們解釋了宗教,啓蒙運動向我們揭示了自然科學奧祕,20世紀給我們帶來了意識形態。

所以接下來我們將要直面這樣一個困難的問題,那就是:如果AI超越了人類意識所能理解的範疇,那它們是否將用自己的意識形態來取代我們解釋這個世界?

所以在機器的世界裏,意識將是如何定義的,是否是把人類的經驗簡化爲0、1一樣的數字,來形成它們自己的記憶,不斷學習、不斷傳承?

誰來對它們的行爲負責,又有誰來爲它們的錯誤買單?由人類設計的法律體系能否跟上人工智能思考和發展的步伐?

我們說人工智能應該是不恰當的。雖然這些機器可以處理那些原本是隻有人類認知才能解決的複雜、抽象的問題。但是,他們思考的獨特之處在於,可以跳出那些條條框框和所謂的經驗之談。而且,他們還具有史無前例的記憶力和計算能力,正因爲這些內在優勢,才讓它們可以贏得各種遊戲。

但對於人類來說,遊戲的目的不僅僅是爲了獲得勝利,更重要的是從中提煉出一種對事物的思考方式。如果把對於事物的思考方式當做一個數學模型去看待,不斷模仿並且試圖接受這些結果,那我們將會失去我們的認知能力。

AlphaZero項目向我們詮釋這場技術爆炸的威力,AlphaZero不僅技術所有棋師的水平之上,而且會用之前棋譜中從未有過的下法。可以通過幾個小時自娛自樂,獲得人類曾經1500年來所總結下來的經驗教訓。

而我們只需要做的就是把遊戲規則告訴它。在它自己學習的過程中,完全沒有進行任何人工干預。AlphaZero可以如此快的精通掌握下棋的技巧,那未來五年人工智能將會發展成什麼樣子?會對我們的下一代造成什麼樣的影響?

這些問題就留給那些在科學領域的專家們吧。哲學家和其他人文領域的專家,因爲缺少對人工智能機制的瞭解、對它們能力感到害怕,所以塑造了一個不利於人工智能發展的觀念。

但相反的,科學家們卻一直嘗試推動人工智能的發展,並讓這些技術在商業領域推廣利用。所以這些人的動機都是挖掘其潛力而非理解人工智能。

同樣作爲政府,最初也是投資於人工智能在安全和情報調查方面的應用,而並未去考慮人工智能會導致人類意識的變化。

啓蒙運動開始於對新技術的哲學探索,但我們正在朝着相反的方向前進。

人工智能的發展潛移默化地指引了我們思考的方向。一些國家把人工智能作爲國家發展戰略計劃,開始研究人工智能的發展和應用,這其中當然也不例外地包括美國。人們把人工智能放在至高無上的發展地位上,但從未思考過這樣將會帶來的衝擊和後果。

雖然說我本人對人工智能的技術可能一竅不通,但在這裏我想告誡那些一門心思鑽研技術,而沒有哲學思考和政治理念的人工智能開發人員,請認真思考這篇文章裏我提出來的這些問題,並把這些思考放入到你們的技術研究之中。

相關報道:

https://www.theatlantic.com/magazine/archive/2018/06/henry-kissinger-ai-could-mean-the-end-of-human-history/559124/

志願者介紹

點「在看」的人都變好看了哦

相关文章