這是圖靈獎十年來第三次頒給機器學習領域的傑出貢獻者了:2011 年圖靈獎得主為 Judea Pearl,他開發的概率與因果推理微積分為人工智慧發展做出了重大貢獻。Leslie Gabriel Valiant 獲得了 2010 年圖靈獎,他為計算理論的發展作出了變革性貢獻,包括 PAC 學習理論、並行與分佈計算理論等。

圖源:amturing.acm.org/byyear

相信讀者對這三位巨頭的名字已經耳熟能詳。

Yoshua Bengio 是蒙特利爾大學教授、魁北克人工智慧機構 Mila 的科學主管。Geoffrey Hinton 是谷歌副總裁、工程研究員,也是 Vector Institute 的首席科學顧問、多倫多大學 Emeritus 榮譽教授。Yann LeCun 是紐約大學教授、Facebook 副總裁和首席 AI 科學家。

或是獨立或是協作,Hinton、LeCun 和 Bengio 開發了深度學習領域的概念基礎,並通過實驗驗證了令人驚訝的現象,此外,他們還貢獻了一些工程進展,展示了深度神經網路的實用優勢。近年來,深度學習方法促進計算機視覺、語音識別、自然語言處理和機器人技術等應用領域取得極大突破。

雖然在 20 世紀 80 年代,研究者就引入了人工神經網路幫助計算機識別模式、模擬人類智能,但一直到 21 世紀初,LeCun、Hinton 和 Bengio 這樣一小撮研究者仍然堅持這種方法。雖然一開始,他們重燃人工智慧社區對神經網路興趣的努力遭到了懷疑,但如今他們的想法帶來了重大的技術進步,他們的方法也已成為該領域的主導範式。

圖靈獎是計算機協會(ACM)於 1966 年設立的獎項,專門獎勵對計算機事業作出重要貢獻的個人,有「計算機界諾貝爾獎」之稱,獎金為 100 萬美元,由谷歌公司贊助。圖靈獎的名稱取自英國數學家艾倫·圖靈(Alan M. Turing),他奠定了計算機的數學基礎和侷限性。

ACM 主席 Cherri M. Pancake 表示,「人工智慧如今是整個科學界發展最快的領域之一,也是社會上討論最廣的主題之一。AI 的發展、人們對 AI 的興趣,很大程度上是因為深度學習的近期進展,而 Bengio、Hinton 和 LeCun 為此奠定了重要基礎。這些技術如今已被數十億人使用。通過口袋中的手機,人們能夠體驗到 10 年前不可能體驗的自然語言處理和計算機視覺技術。除了我們每天使用到的產品,深度學習的最新進展也為醫療、天文、材料科學等各個領域的科學家們帶來了強大的新型工具。

「深度神經網路促進了現代計算機科學的極大進步,在解決計算機視覺、語音識別和自然語言處理領域中的長期問題方面取得了極大進展。」Google AI 負責人 Jeff Dean 表示,「該進展的核心得益於今年圖靈獎得主 Yoshua Bengio、Geoffrey Hinton 和 Yann LeCun 30 多年前開發的基礎技術。深度神經網路顯著提升了計算機感知世界的能力,它不僅改變了計算領域,也幾乎改變了科學和人類奮鬥的所有領域。」

機器學習、神經網路和深度學習

傳統計算中,計算機程序使用明確的一步步指令指引計算機。而在深度學習這一 AI 研究子領域中,計算機並未得到關於如何解決特定任務的顯式說明。深度學習使用學習演算法從數據中提取輸入數據與期望輸出的關聯模式,比如輸入數據為圖像像素,輸出為標籤「貓」。研究者面臨的挑戰是開發出高效的學習演算法,修改神經網路中連接的權重以使它能夠捕捉到數據中的關聯模式。

自 20 世紀 80 年代開始,Geoffrey Hinton 就開始提倡使用機器學習方法進行人工智慧研究,他希望通過人腦運作方式探索機器學習系統。受人腦的啟發,他和其他研究者提出了「人工神經網路」(artificial neural network),為機器學習研究奠定了基石。

在計算機科學領域,「神經網路」指由多個簡單計算元素(神經元)層所組成的系統。這些「神經元」僅僅大致地模仿了人腦中的神經元,但卻能通過加權連接互相影響。通過改變連接的權重來改變神經網路所執行的計算。Hinton、LeCun 和 Bengio 認識到使用多層深度網路的重要性,即「深度學習」。

由於 GPU 計算機的普及和海量數據的獲取,Hinton、LeCun 和 Bengio 在 30 年中所奠定的概念基礎和工程實踐得到了極大提升。近年來,多種因素導致計算機視覺、語音識別和機器翻譯等技術出現了跳躍式發展。

Hinton、LeCun 和 Bengio 也曾合作過。LeCun 曾在 Hinton 的指導下完成博士後工作,20 世紀 90 年代,LeCun 和 Bengio 都在貝爾實驗室工作。即使不在一起工作的時候,他們的研究中也存在協同和相互關聯性,他們對彼此產生了巨大的影響。

這三位大牛目前繼續探索機器學習與神經科學和認知科學之間的交叉領域,最著名的是他們共同參與了加拿大高級研究所(CIFAR)的「機器與大腦學習計劃(Learning in Machines and Brains program)。

主要技術成就

今年圖靈獎得主的技術成就帶來了 AI 技術的極大突破,包括但不限於以下成果。

Geoffrey Hinton

ACM 表示 Geoffrey E Hinton 主要有三大重要貢獻:

  • 反向傳播
  • 玻爾茲曼機
  • 對卷積神經網路的修正

在 1986 年的一篇論文中,Hinton 與 David Rumelhart 和 Ronald Williams 提出了反向傳播,這篇論文即著名的《Learning Internal Representations by Error Propagation》。Hinton 等研究者表示反向傳播演算法允許神經網路探索數據內部的深層表徵,因此神經網路才能解決以前被認為無法解決的問題。反向傳播目前已經成為訓練深度神經網路所必需的演算法。

1983 年,Hinton 和 Terrence Sejnowski 提出了玻爾茲曼機,它是第一個能學習神經元內部表徵的深度神經網路,這種表徵既不是輸入也不是輸出的一部分。

到了 2012 年,Hinton 與他的學生 Alex Krizhevsky 和 Ilya Sutskever 為卷積神經網路的發展做出了重要貢獻。他們率先使用修正線性神經元(ReLU)和 Dropout 正則化大大提升了深度卷積神經網路的性能。在當年的 ImageNet 競賽中,Hinton 和他的學生幾乎將圖像識別的誤差率減半,這一次挑戰賽重塑了計算機視覺領域。

Yoshua Bengio

ACM 表示 Yoshua Bengio 主要有三大重要貢獻:

  • 序列的概率建模
  • 高維詞嵌入與注意力機制
  • 生成對抗網路

在上個世紀九十年代,Bengio 提出將神經網路與序列的概率建模相結合,例如隱馬爾可夫模型這種序列的概率建模方法。這些創新觀點被 AT&T/NCR 所接受,並用於閱讀手寫支票,該系統被認為是九十年代神經網路研究的巔峯之作,現代基於深度學習的語音識別系統都是在這些概念上繼續擴展的。

在 2000 年,Bengio 等研究者發表了一篇具有里程碑意義的論文《A Neural Probabilistic Language Model》,該論文引入了高維詞嵌入作為詞義的表徵方法。Bengio 的觀點對自然語言處理任務產生了巨大而持久的影響,包括機器翻譯、知識問答、視覺問答等等。他的研究團隊還提出了一種注意力機制,該方法直接導致了機器翻譯領域的突破,並構成了深度學習序列建模的關鍵組成部分。

自 2010 年以來,Bengio 非常關注生成式深度學習,特別是他與 Ian Goodfellow 等研究者提出的生成對抗網路(GAN),這項研究引起了計算機視覺和計算機圖形學的革命。這項工作令人驚奇的地方在於,計算機能生成與原始圖像相媲美的圖像,這難免讓人聯想到人類水平的創造力。

Yann LeCun

ACM 表示 Yann LeCun 主要有三大重要貢獻:

  • 提出卷積神經網路
  • 改進反向傳播演算法
  • 拓寬神經網路的視角

20 世紀 80 年代,LeCun 構建了卷積神經網路,這是該領域的一項重要理論,對於提高深度學習效率至關重要。20 世紀 80 年代後期,LeCun 就職於多倫多大學和貝爾實驗室,也是在這一時期,它利用手寫數字圖像訓練了第一個卷積神經網路系統。如今,卷積神經網路已成為計算機視覺、語音識別、語音合成、圖像合成和自然語言處理領域的行業標準。卷積神經網路有著廣泛的應用,如自動駕駛、醫學圖像分析、語音助手和信息過濾等。

改進反向傳播演算法,LeCun 提出了一個早期版本的反向傳播演算法(backprop),並基於變分原理給出了一個清晰的推導。他加速反向傳播演算法的工作包括描述加快學習速度的兩個簡單方法。

LeCun 的貢獻還包括拓寬神經網路的研究視角,他將神經網路發展為一種計算模型,用到一系列任務中,他早期工作中的一些概念已成為 AI 發展的基石。例如,在圖像識別領域,他研究瞭如何在神經網路中學習分層特徵表徵——這一概念現在經常用於許多識別任務。他和 Leon Bottou 一起提出:學習系統可以被構建為複雜的模塊網路,在這個網路中,反向傳播通過自動微分來執行,這一理念用在每一個現代深度學習軟體中。他們還提出了可以處理結構化數據的深度學習架構,如「圖」(graph)。

原文鏈接:awards.acm.org/about/20


推薦閱讀:
相關文章