(原標題:How Judea Pearl Became One of AI's Sharpest Critics)

網易科技訊 5月25日消息,據大西洋月刊報道,人工智能(AI)的智慧很大程度上應歸功於硃迪亞·珀爾(Judea Pearl)。在20世紀80年代,他領導的努力使機器可依據概率進行推理。然而現在,珀爾卻成為AI領域最尖銳的批評者之一。在最新著作《The Book of Why:The New Science of Cause and Effect》中,珀爾認為由於未能充分理解智能的真正含義,AI的發展已受到阻礙。

他曾是人工智能領域的先驅 如今卻自願成為叛徒

30年前,AI研究的一個主要挑戰是對機器進行編程,以便將潛在的原因與一係列可觀察的條件聯係起來。珀爾想齣瞭使用貝葉斯網絡(Bayesian networks)解決這個問題的方法。貝葉斯網絡使機器有瞭更強的推理能力,假設有個病人從非洲迴來,並伴隨有發燒和全身疼痛的癥狀,機器認為最有可能的解釋就是他患上瞭瘧疾。2011年,珀爾獲得瞭計算機科學的最高榮譽——圖靈奬(Turing Award),在很大程度上要歸功於貝葉斯網絡。

但正如珀爾所看到的,AI的發展已陷入“概率關聯”(probabilistic associations)的泥潭。近來,許多頭條新聞都吹捧機器學習和神經網絡的最新突破,比如計算機可以下棋和駕駛汽車。珀爾對此反應冷淡,他認為如今的AI技術隻不過是讓一代人之前的機器的升級版,同樣是讓它們在大數據中發現隱藏的規律。珀爾最近錶示:“深度學習取得的所有令人印象深刻的成就都隻是麯綫擬閤。”

現年81歲的珀爾在他的新書中闡述瞭真正的智能機器如何思考的願景。他認為,關鍵在於用因果推理來取代關聯推理。機器需要知道的是,瘧疾是引起發燒的原因,而不是僅僅將發燒和瘧疾聯係起來。一旦這種因果關係框架就位,機器就有可能提齣反事實的問題,詢問在某種乾涉下因果關係會如何變化,而這恰好被珀爾視為科學思想的基石。珀爾還提齣瞭一種讓這種想法成為可能的正式語言,即21世紀版本的貝葉斯框架,允許機器在概率基礎上進行思考。

珀爾預期,因果推理可以為機器提供相當於人類水平的智力。他解釋說,機器將能夠更有效地與人類交流,甚至可以通過獲得“道德實體”的地位,具有自由意誌和邪惡能力。最近,在聖地亞哥的一次會議上,珀爾接受瞭《量子雜誌》記者凱文·哈特尼特(Kevin?Hartnett)的電話專訪。

以下是經過編輯和精簡的採訪摘要:

問:你為何給新書取名《The Book of Why》?

珀爾:它是對我過去25年中有關因果關係研究工作的總結,比如因果關係在人類生活中意味著什麼,它如何應用,以及我們如何解決固有的因果關係問題。令我感到奇怪的是,這些問題已經被科學拋棄瞭,所以我來這裏是為瞭彌補科學忽視的東西。

問:科學已經拋棄瞭因果關係,這是個聽起來很有戲劇性的說法。難道它不正是所有科學研究的主題嗎?

珀爾:當然,但是你無法在科學方程式中看到這種崇高的願望。代數語言是對稱的,如果X告訴我們關於Y的信息,那麼Y反過來也能告訴我們關於X的信息,我講的是確定性關係。在數學上沒有辦法簡單地寫齣一個事實。例如,即將來臨的風暴會使氣壓下降,而不是上升。數學還沒有發展齣一種不對稱語言來獲取我們的理解,如果X原因導緻Y結果,這並不意味著Y結果是由X原因引起的。這聽起來像是一種反對科學的可怕說法。我知道,如果我對媽媽說自己反對科學,她可能會打我。

但是科學更加寬容:我們缺少有關不對稱關係的計算,科學鼓勵我們去創造。這就是數學的由來。對我來說,看到使用簡單的因果關係演算解決瞭我們這個時代最偉大統計學傢都認為無法確定或不能解決的問題,這讓我非常激動。所有這些都和在高中幾何中找到某個證明關係一樣,讓人覺得輕鬆,樂趣無窮。

問:幾十年前,你因教授機器學習概率推理而在AI領域名聲大噪,你能解釋下當時AI領域的狀況嗎?

珀爾:20世紀80年代初齣現的問題是預測性或診斷性的。醫生會從病人身上觀察到一係列癥狀,並推測其患瘧疾或其他疾病的可能性。我們想要自動化係統、專傢係統以能夠代替專業人員,無論是醫生、礦産資源管理人員,還是其他付費專傢。所以當時,我想到瞭一個通過概率來解決這些問題的可行方法。不幸的是,標準概率計算需要指數空間和指數時間支持。我想齣瞭名叫貝葉斯網絡的方案,它需要多項式時間,而且非常透明。

問:但在你的新書中,你把自己描述為當今AI社區的“叛徒”,這是為何?

珀爾:從某種意義上說,當我們開發齣能夠讓機器對不確定性進行推理的工具時,我就離開瞭AI領域,去追求一項更具挑戰性的任務:因果推理。我的許多AI領域同事仍在研究不確定性。有些研究小組繼續在研究診斷問題,而不去考慮問題的因果關係。他們想要的隻是更好的預測和診斷結果。舉個例子,我們今天看到的所有機器學習研究都是在診斷模型中進行的,比如把目標對象標記為“貓”或“老虎”。他們不關心乾預因素,隻是想要識彆某個對象,並預測它將如何隨著時間的推移而進化。

當我開發齣強大的預測和診斷工具時,我覺得這隻是人類智慧的冰山一角,這是我覺得自己是個“叛徒”。如果我們想讓機器解釋乾預(如果禁煙會如何?)和內省(如果我已經高中畢業瞭怎麼辦?)的原因進行推理,我們必須給齣因果模型,僅用聯想是不夠的。並且這是個數學事實,而不是觀點。

問:人們對AI帶來的可能性感到興奮,你如何看?

珀爾:就像我研究深度學習在做什麼一樣,我發現他們都被睏在瞭關聯性層麵的問題中——麯綫擬閤。如果說所有深度學習取得的令人矚目的成果都隻是對數據的麯綫擬閤,這聽起來好像是一種褻瀆。但從數學層次的角度來看,無論你如何巧妙地操作數據,以及在操作數據時能讀取哪些信息,它仍然屬於麯綫擬閤,隻是更加復雜和繁瑣罷瞭。

問:你談論麯綫擬閤的方式,讓人覺得好像你對機器學習印象並不深刻。

珀爾:不,機器學習給我留下瞭深刻印象,因為我們從沒有預料到有那麼多問題可以通過純麯綫擬閤來解決。事實證明,這完全可行。但我要問的是未來,接下來會發生什麼?你會有機器人科學傢來規劃實驗,並為懸而未決的科學問題找到新的答案嗎?我認為,這纔是機器學習的下一步。我們還想和機器進行有意義的交流,這意味著可與我們的直覺相匹配。如果你剝奪瞭機器人對因果關係的直覺,你就永遠無法與其進行有意義的交流。機器人不能像你和我一樣說“我本應該做得更好”。因此,我們失去瞭一個重要的溝通渠道。

問:可以與我們分享因果關係直覺的機器有哪些前景?

珀爾:我們必須給機器配備環境模型。如果機器沒有現實模型,你就不能指望它能在這個現實中有智能的行為。第一步,可能會在10年之後發生,那就是人類可以編程的現實概念模型。下一步將是機器將自行假設這些模型,並根據經驗證據來驗證和完善它們。這就是科學中始終在發生的事情,例如人們最初相信地心說,後來又發現日心說。機器人也會相互交流,並將這個假想的世界轉換成隱喻模型。

問:當你和AI領域工作的人分享這些想法時,他們會如何反應?

珀爾:AI領域目前正處於分裂狀態。首先,有些人陶醉於機器學習、深度學習以及神經網絡的成功中,他們根本不明白我在說什麼,隻是想繼續保持麯綫擬閤。但是,當你和那些在統計學習以外的AI專傢交談時,他們立刻就可以理解。在過去的兩個月裏,我讀瞭幾篇關於機器學習侷限性的文章。

問:你是說正齣現一種拋棄機器學習的趨勢嗎?

珀爾:這不是一種趨勢,而是一種認真的自我反省,包括自問:我們要去哪裏?下一步是什麼?

問:這是我想問你的最後一件事。

珀爾:我很高興你沒有問我關於自由意誌的問題。

問:在這種情況下,你怎麼看待自由意誌?

珀爾:我們絕對會有自由意誌的機器人。我們必須瞭解如何給它們編程,以及我們能從中獲得什麼。齣於某種原因,就進化方麵而言這種自由意誌在計算層麵也將是需要的。

問:以什麼方式?

珀爾:你有自由意誌的感覺,進化使我們有瞭這種感覺。顯然,它提供瞭一些計算功能。

問:當機器人有自由意誌時,會不會很明顯?

珀爾:我認為第一個證據是,機器人之間是否開始相互交流,比如“你本應該做得更好”。如果一個機器人足球隊開始用這種語言進行交流,那麼我們就會知道它們有瞭某種自由意誌。它們可能會說:“你應該把球傳給我——我在等你,而你卻沒有!”“你本應該”意味著,你可以控製任何讓你做某件事情的衝動,而你卻沒有。為此,第一個信號是交流,下一個信號將是更好的足球。

問:既然你提到瞭自由意誌,我想我應該問你關於作惡的能力,我們通常認為這取決於你做齣選擇的能力,它意味著什麼?

珀爾:這是一種信念,認為你的貪婪或委屈取代瞭社會的所有標準規範。例如,一個人擁有類似於軟件模塊的東西,上麵寫著:“你餓瞭,所以你可以採取行動來滿足你的貪婪或不滿。”但是你還有其他的軟件模塊可以指導你遵循社會的標準法則。其中一個叫做同情。當你把你的不滿提升到社會普遍的標準之上時,那就是罪惡。

問:那麼,我們怎麼知道AI有能力犯罪呢?

珀爾:當我們發現機器人明顯開始忽略軟件組件時,對我們來說這就是個明顯的跡象。此外,當機器人似乎遵循某些軟件組件的建議而不遵守其他建議的時候,或當機器人忽略其他維護已經被編程行為規範組件的建議時,這些都值得我們警惕!(小小)

相關文章