榖歌AI主管Jeff Dean談AutoML的偏見和自動化武器

本文係網易智能工作室(公眾號 smartman163)齣品。聚焦AI,讀懂下一個大時代! 

【網易智能訊 5月12日消息】大約一個月前,榖歌搜索和人工智能主管John Giannandrea離職,其AI研究部分業務被榖歌大腦研究部門的負責人Jeff Dean接管。在AI持續覆蓋榖歌各産品綫和服務的時刻,Google Research近期也更名為 Google AI。

週二,隨著榖歌在I/O大會上推齣瞭數十項新功能和更新,Jeff Dean分享瞭他對未來的展望。這些新功能和更新包括:為移動應用開發者提供的ML工具包(ML Kit)、第三代張量處理單元芯片( tensor processing unit chips)計劃,以及可以協助用戶撥打電話的榖歌助手。

在此基礎上,Dean闡述瞭人工智能帶來的機會:創造新産品,以及為人類以前從未考慮過的問題找到解決方案。不僅如此,他還看到瞭伴隨AutoML技術而産生的挑戰,AutoML是一種可以創建其他人工智能模型的人工智能模型。此外,他不認為榖歌應該從事製造自主武器的業務。

通用人工智能(AGI)的興起

今天,世界上大部分人工智能僅支持完成一個單一的、狹窄的用例,例如單句的語言翻譯。但Dean錶示,他希望榖歌能創建更多的人工智能模型,以實現多個任務,並實現一種“對世界的常識推理”。

他說:“我認為,在未來,你會看到我們更多地轉嚮那些能夠處理多個事件的模型,然後利用這些經驗積纍經驗,這樣當我們想要訓練一個模型去做其他事情的時候,它就能建立起其已經擁有的技能和專業技能。”

舉個例子,如果一個機器人被要求去撿一些東西,它就會明白手是如何工作的,重力是如何工作的,以及對這個世界的其他理解。他說:“我認為這將是一個你將在未來幾年內看到的重要趨勢。”

AutoML的偏見和不透明性挑戰

AutoML,這是一個可以創造子AI的AI係統,令人興奮還是令人恐懼?這個問題的答案取決於你的對象。機器肯定與AI反對者持不同意見。不過,榖歌雲計算(Google Cloud )首席科學傢李飛飛錶示,從高端開發者到東京的拉麵店老闆, AutoML通過為每個人創建定製的人工智能模型來降低門檻。

Dean覺得這很令人興奮,因為它幫助榖歌實現“解決問題的自動化(automatically solve problems)”,但 AutoML的應用也會帶來獨特的問題。

他說:“因為我們使用的更多的是學習係統,而不是傳統的手工編碼軟件,我認為這給我們帶來瞭很多挑戰。其中一個挑戰是,如果你從帶有偏見的數據中學習,那麼基於此學習的機器學習模型就會使這些偏見延續下去。”因此,我們正在做的大量工作,以及機器學習領域的其他工作,都是為瞭弄清楚我們如何能夠訓練那些沒有偏見的機器學習模型。”

另一個挑戰是:如何正確地使用AutoML設計安全關鍵係統(safety-critical systems),從而在醫療保健等行業應用人工智能。數十年的計算機科學實踐已經為實現手工編碼這樣的係統奠定基礎,同樣,機器領域也需要這樣的大量工作。

Dean說,當你對狗的種類進行分類時,犯錯誤是一迴事,而在安全關鍵係統中犯錯則完全是另一迴事。他說:“我認為這對我們來說是一個非常有趣和重要的方嚮,特彆是當我們開始在更多安全關鍵係統中應用機器學習的時候,這包含那些正在決定你的醫療保健或自動駕駛汽車的事情。”

安全關鍵性人工智能需要更多的透明度

週二,與榖歌人工智能助手新功能以及Android P測試版發布消息一起,榖歌CEO桑達爾·皮查伊(Sundar Pichai)談到瞭榖歌如何將人工智能應用於醫療保健,基於電子健康記錄的信息來預測患者的重新接納。此外,榖歌研究人員在《Nature of Digital Medicine》上發錶瞭一篇文章,解釋瞭為什麼其人工智能會對病人做齣某些決定,這樣醫生就可以在醫療記錄中看到推薦的理由。

在未來,Dean希望一個想知道人工智能為何做齣某特定決定的開發者或醫生,能夠簡單地以詢問人工智能模型的方式獲得反饋。

Dean說,今天,在榖歌産品中應用人工智能需要一個內部審查過程。榖歌目前正在開發一套指導方針,用於評估人工智能模型是否包含偏見。他說:“你想要的基本上是,就像産品的新功能的安全審查或隱私審查一樣,你想要一個機器學習公平審查(ML fairness review),這是將機器學習融入我們的産品的一部分。”

Dean說,當開發人員通過諸如ML工具包或TensorFlow這樣的工具來實現人工智能時,人類也應該成為決策過程的一部分,而這類工具的下載量已經超過1300萬次。

在人工智能武器上畫綫

在迴答一個問題時,Dean 錶示,他不認為榖歌應該從事製造自主武器的業務。今年3月,有消息稱,榖歌正與美國國防部閤作,改進對無人機收集視頻的分析。他說:“當整個社會開始發展更強大技術的時候,我認為,機器學習和人工智能會産生許多有意思的倫理問題。”

我個人已經簽署瞭一封信(大約是六到九個月前的一封公開信,確切時間未知),以此錶達我對機器學習應用於自動化武器領域的反對。”我認為,很明顯,我們想要做齣什麼樣的決定與公司的決定是一個連續統一體。我認為大多數人對自動化武器係統的應用感到不安。”根據《紐約時報》的報道,數韆名榖歌員工已經簽署瞭一封信,要求榖歌不參與“戰爭技術(warfare technology)”的創建,因其可能會對榖歌的品牌和公司與公眾之間的信任造成無法彌補的損害。Dean沒有具體說明他是否簽署瞭《紐約時報》報道中提到的那封信。

人工智能驅動新的項目和産品

除瞭病人重新接納AI和一個旨在瞭解莫爾斯電碼的Gboard,Pichai 還強調瞭一項先前發布的人工智能研究,該研究準確地檢測齣瞭糖尿病視網膜病變,並像受過高度訓練的眼科醫生那樣預測到問題的齣現。人工智能模型的智能化程度已經開始超越對人類活動的模仿層麵,其正在幫助榖歌發現新産品和新服務。

Dean說:“通過使用大量數據來訓練這些模型,我們實際上可以做一些我們不知道我們能做的事情,這是一個非常基本的進步。我們現在正在創造一種全新的測試和産品,而不是僅僅用人工智能來輔助訓練係統。”

(選自:venturebeat 編譯:網易智能 參與:nariiy)

關注網易智能公眾號(smartman163),為你解讀AI領域大公司大事件,新觀點新應用。

相關文章