請從自己的memory database中調用search函數,分享你所期待的AI未來。要求:必須是能在地球上的場景(謝絕外太空/虛擬世界科幻),而且20年內理論上有可能發生的喲~


2006年,我拿著優派的Airpanel 100(是的,iPad要三年後才推出我就有「Pad」了)看著NTT DoCoMo的宣傳片《Vision 2010》幻想那個屬於人工智慧的美好未來,然而2020年了,屬於人工智慧的美好未來並沒來,Vision 2010的餅到2020都圓不上。我想我是歷史的見證者,下面文章的作者就是我:

硬派傳說另類顯示器篇:SmartDisplay_硬體_科技時代_新浪網?

tech.sina.com.cn圖標

當初的Vision實現了嗎,事到如今只好祭奠嗎?

NTT Docomo Vision 2010蓬岸 Dr.Quest的視頻 · 724 播放

因此我的估計會是整個樓裏最悲觀的,會有一些說明顯但也說不上明顯的變化,2020年的人工智慧在我看來,不過是把1990年代的餅給圓上了

深藍打敗卡斯帕羅夫的時候,人們就在猜什麼時候電腦能夠在圍棋上打敗人類,2016年AlphaGo做到這一點,距離深藍差不多剛好20年。

AIX上Motif風格的窗口特別有感覺。

語音輸入的餅也是90年代畫下的,IBM ViaVoice曾經跟隨聯想「幸福之家」一起安裝到許多家庭的電腦上,但90年代的語音輸入需要做口音適應,這個餅大概要到2011年的Siri才圓上。

然而,就算我誇Siri,Siri雖然聽懂了我說的每一個字,但卻不知道什麼意思。

所以未來的20年,大概就是把自動駕駛、輔助診斷這些「畫餅」圓上的過程。但是我們必須看到電腦硬體的性能提升空間可能已經有限,而且邊際效應遞減的,就像藍光比DVD畫面好是一眼就能看出來,但4K、8K片源帶來的改善就沒有那麼驚人了。AI也是這樣。

我在這裡敲打一下哪些樂觀主義者

那些聳人聽聞的「預測」和畫餅,美國人大多數都在20、30年前畫好了

1987年的Sunraycer出來的時候,人們都認為在今天各種新能源汽車能夠成為主力,汽油車將變成懷舊專屬,然而30多年過去了,大街上的汽車大多還是汽油車。

川崎重工在1950年代就畫下了機器人取代體力勞動者的餅,但體力勞動者的崗位究竟是減少了還是轉移到勞動力成本更低的地方了?

關於VR,那一代一代的餅就更多了。比如前一段時間熱炒的「雲展覽」,就是把90年代VRML乾的事情拿WebGL翻做一遍


AI落地過去的五年,應該來說不算特別的成功,這個問題的出現,與其說是展望,不如說是總結。知道什麼不行,才知道什麼是可行的。

首先看下目前AI適合幹什麼? 幾個核心的關鍵詞: (有限)數據驅動,不確定的,概率的,局部的或者單點的。這些特性就決定了AI目前只能選擇細分的場景,去固化數據,然後去極大似然,最後還要祈禱場景裡面沒有致命的outlier。從這個點上看,很多的AI場景未來都要降低維度才能落地,包括自動駕駛。當然更多的AI還是停留在低籌碼的場景,比如遊戲社交娛樂電商,比如少推薦了三五個正確商品,反正也看不出來,有時候使用者也不知道自己想買什麼,反正都是看緣分了。

接著說點預測性的,純粹猜想:

1 虛擬的比實體的落地要快:感謝那些回答中提到AI+Robotics, 但是實際上機器人尤其是工業領域的落地,比想像的要難,感興趣的可以瞭解我們在食品領域落地的前後,見下面的圖。那些對AI+Robotics感興趣的,可以一起探討下。

機器人本身就是載體,各種大腦結合了大量信息的決策會更有價值。比如明年消費者喜歡喫什麼口味的食品,年輕人喜歡什麼類型的服裝等等。這些可能AI更喜歡也更好做,反正核心就是不斷通過數據來餵食人羣,反覆強化,然後還讓大家產生是自己決策結果的錯覺。也許通過消費端,反向來促進生產和流通環節,這樣數據的價值才能最大的發揮。未來你所看到的爆款,包括服裝、電影,遊戲、食品、網紅等等,全部都是AI生產、推薦、包裝出來,AI會比你更懂你。

2. 虛擬中的落地,信息或者內容的智能生成和推演將會成為主流。 2000年-2010年,主流是信息的流通與搜索; 2010-2020, 信息的推薦和生產是主流。未來20年,信息和內容應該都是可以通過AI生成的,也就是我們能夠看到很多我們以前看不到的東西。搞來搞去也就那些場景,看得都有點乏了,未來應該還是通過AI實現各種更好的體驗更爽的內容來刺激人的多巴胺。這一點上我還是很看到阿里搞的城市大腦的,畢竟能夠將這麼多複雜的數據信息匯聚到一起,並且能挖掘一些有用的信息。但是這些數據,怎麼能夠用到指導下一個城市的建設,也許更有價值。

舉個簡單的例子,20年後,當在google或者百度搜索「李開復」三個字,出現的應該不是關於李開復的各種零碎的網頁,而可能是一個類似的人物記錄片或者人物傳記,而這些都應該是AI根據已有的信息自動生成的。

3. 虛擬與實體的結合:A:機器人云化,無論是在家裡還是車裡還是工廠,率先建立整個生態的會勝出。B: 人類變得機器人化,也就間接的連上各種雲。總體上會圍繞數據來重構,有更多的數據,就能生產更好的內容,就能更好的推送,就能更好的滿足消費者。

總之,得數據者得天下。作為普通消費者,只能祈禱20年後,那些偷你數據的公司,願意給你付點生活費了,才能讓你更好的消費。AI能推薦你想不到的,機器人能生產你做不到的,人只不過只是一個信息的過客而已。


從AI+Robotic領域來看,我相信未來20年這個相對來說還比較空白的領域將會誕生一大批獨角獸(是AI+Robotic,不是傳統的機械佔比較大的機器人公司)。

1.機器人現在能做什麼?

機器人在工廠中已經十分常見了,大部分機器人可以熟練地在重複和一直的結構化環境中,抓取和操作物體,然而需要機器人提前知道物體的種類、幾何形狀、材料特性、重量和位置。 在這些早期的工廠中,機器人手臂需要遵循預定的軌跡,並假定物體總是出現在同一個地方。

而如今,在智能技術的加持下,機器人可以則可以不設置固定的軌跡,通過物體識別與定位,檢測到在不同位置的物體,大大簡化了流水線的部署過程。然而仍然需要限定物體種類的數量,並提供預先訓練好的能夠識別這些物體的模型,且無法做到100%成功識別,工業上對精度要求較高,往往需要達到99.999%的準確率。當然這只是識別這一環,成功識別並定位後,還需要進行抓取

以往的抓取方法需要提前知道物體的幾何模型與物理屬性,而如今在基於學習(learning based)和數據驅動(data driven)的技術背景下,機械臂能夠更加靈活的抓取未知以及未見過的物體。Dexnet系列(https://berkeleyautomation.github.io/dex-net/)抓取技術,讓機器人在比較規則的物體集合中達到98%的成功抓取率,然而在形狀比較複雜和透明物體上,其成功率還有很大的提升空間。而抓取只是最基礎的機器人操作(robot manipulation)技術。

上述物體識別與定位以及抓取技術都已經在某些環境下達到了98%及以上的準確率,雖然在嚴格意義下不能說其已經能做這些事情了,但是如果以某些限定的環境和足夠的數據為前提,已經能夠實現商業化。國內做的比較好的有庫柏特 @李淼robot ,如本 @fly qq ,梅卡曼德,藍胖子等公司。國外則是vicarious、covariant等。

2.機器人還不能做什麼?

如今不能做的,將是未來20年內有可能實現和誕生獨角獸的領域,技術進步具有不確定性,並呈螺旋式發展,下面提到的既可通過發展基礎科學(數理化生)解決,也可提高計算機的運算能力與對現實物理世界的建模能力解決(強化學習等方法,說到底人類的進化也是一種長時間"演算"的過程,獎勵函數是稀疏獎勵生或死即0或1,action是基因選擇,世界模型則是整個大自然,從而產生了人類這種智能體),當然也可以通過智能技術的發展解決,尤其是自監督學習、表徵學習、元學習,這些技術可以有效抽象出物體特徵,降低狀態維度,減少狀態空間的搜索量。

可變形物體的操作:雖然機器人在操作剛性物體方面已經有很大進展,並能實現部分商業化,但它們仍難以操作可變形的材料,如衣服、蔬菜等。產生變形的操作仍然是待解決的問題,因為需要精確的變形模型,或者通過基於強化學習的技術解決,然而成功率與訓練效率都有待提高(Pieter Abbeel經典工作: Cloth grasp point detection based on multiple-view geometric cues with application to robotic towel folding)。

複雜操作:給定一個任務,需要機器人能夠完成一系列的動作序列。以抓取任務為例,抓取雖然是基礎任務,但是它與後續的操作動作息息相關,比如喝水和倒水,要求抓取的位姿就不一樣。還有很多更加複雜的任務,如今的一個趨勢是通過分層強化學習解決(如Effificient Bimanual Manipulation Using Learned Task Schemas,成功率僅僅達到了90%)。然而我認為想讓機器人真正實現複雜的manipulation任務,需要機器人理解力,理解各種物體之間的不同接觸對物體本身狀態的影響。

改變物體狀態:雖然如今的圖像識別技術能夠有效識別物體的種類,但是識別物體的狀態仍然是有待解決的問題,如何去表徵和識別一個削了皮的蘋果,削了一半皮的蘋果和削了三分之一皮的蘋果?這是讓機器人實現削皮的前提。如何識別一些微小的變化,比如菜上有一小塊爛掉了,機器人需要把這一塊去掉。

當然AI+機器人領域還有很多待解決的問題,比如如何賦予機器人觸覺信息,雙臂機器人如何進行運動規劃,人機協作時的安全性問題,機器人如何根據人類意圖進行協同作業,soft hands等等。

3.未來20年的展望

綜合上述機器人能夠做的以及不能做的,展望一下未來20年,能夠切切實實改變人們生活的技術。由於基礎科學的進步是難以預測的,那麼我們假設未來20年基礎科學沒有十分大的進步,在這個前提下,分析AI+機器人領域可以如何改變人們的生活

技術前提:如果基礎科學沒有十分大的進步,也就是說機器人的硬體並沒有發生巨大改變,柔性材料仍然不能實現靈活多自由度驅動,觸覺感測器仍然維持較大體積與較高成本。僅有更加專用化晶元提高運算能力,自監督學習與表徵學習等方法能夠在有限的結構化場景下完成較好的特徵提取工作,強化學習技術效率與通用性大大提高。當然上述都是假設,說不定基礎學科並沒有很大進步,但是仍然發明出了多自由度的柔性材料驅動方法。

AI+機器人對生活的改變

上述的一個重要前提就是在有限的結構化環境下,再具體一些,就是指能夠較低成本的獲取大量數據(由於自監督學習的發展,未標註的也是可以的),並且不會出現非常多的沒有考慮進去的變數。比如在自動駕駛領域,變數實在是有點多,數據驅動的演算法很難將各種變數考慮進去,因此要真正實現L5(完全自動駕駛)級別的自動駕駛,如果基礎學科沒有巨大突破,還是比較困難的,但是L4(限定環境下進行自動駕駛)級別的自動駕駛還是很有希望的。

回過頭來看第二節中所述的可變形物體操作,已經可以在特定環境中解決,我們在這裡假設表徵學習已經能夠同時提取物體的高級別的語義特徵及低級別的形狀特徵,那麼可以通過表徵學習去提取特徵並通過強化學習進行訓練,在工業化環境中,機器人則可以實現操作一些柔性物體。比如在毛巾生產中,紡織、織造等環節自動化程度很高,但整理包裝仍然依靠人工。而機器人這一能力能夠實現整個生產流程的自動化,大大提高生產效率。

再來看第二節中所提到的複雜操作,如今工廠中幾乎所有的複雜操作,要麼是通過人工實現,要麼是將其拆解為多個結構化的可用機器操作的子流程,第一種效率低,第二種成本高。而隨著機器人對力的理解,對現實物體之間互相作用互相影響的過程的理解,這些複雜操作都可以通過機器人實現。比如一些裝配工作。

最後是物體狀態的識別,如果此技術可以實現(可能性較大的實現途徑仍然是表徵學習),那麼家庭做飯機器人不再是夢想。如今機器人的成本在不斷降低,我相信隨著機器人三大核心零部件的國產化,以及機器人閉環控制技術的發展(如今的逆運動學,抓取規劃仍然是開環的),將持續降低機器人的成本。當然我們離通用化的家庭服務機器人仍然有一段距離。


7月9日至11日,2020世界人工智慧大會在上海召開,不過因為會議議題較高的技術含量,除了主流媒體的報道以外似乎沒有在坊間有太多的迴音。而同為落戶上海的大型展會,中國國際數碼互動娛樂展覽會也就是大家熟悉的ChinaJoy,相比之下人氣要高得多,賞心悅目的ShowGirl和Coser比高冷的高科技更容易讓人親近,畢竟李開復曾經說過,與AI不同,我們(人類)有愛。其實,人工智慧大會和ChinaJoy並非風馬牛不相及。在今年的人工智慧大會的開幕式上,4位虛擬歌手(微軟小冰、百度小度、小米小愛、B站泠鳶)合唱主題曲《智聯家園》成為全場的焦點,而這些虛擬歌手的的老前輩初音未來,早就已經是ChinaJoy等ACG活動的常客,甚至還開啟了全球巡演。

不可否認。科技已經潤物細無聲的走進了人們的精神世界。提到人工智慧或者自動化,大家可能首先會想到代替人類進行各種枯燥重複性勞作的機器人,進而擔心人工智慧會取代人類的地位甚至凌駕於人類之上。其實,在 AI 分擔了我們繁重的工作後,我們才會有更多的時間去享受生活,而且正如百度想通過不斷發展成熟的小度告訴大家的,科技可以成為我們的精神伴侶,讓我們生活得更加快樂。

以Crypton公司的初音未來開始,虛擬人物正在被更多人所接受和喜愛。初音未來的歌唱內容由於可以被方便的定製,適配不同風格的音樂作品,在泛動漫愛好者中有著極高的人氣,成為科技與創意結合的典範。隨著技術發展,虛擬人物輸出的也不再是簡單的語音。拜最新的信息技術所賜,觀眾們可以在舞臺上欣賞到鄧麗君,邁克爾傑克遜,貓王這些已經過世多年的巨星的音容笑貌。

我們也可以把這些虛擬人物放進口袋,擺在桌上,裝進車裡,語音個人助理幫我們操作家電和汽車,搜索想要了解的信息。雖然當下這些技術還有些不完美讓人吐槽的地方,但不妨讓我們展望一下在可預見的未來,智能化的虛擬人物會給我們的生活帶來怎樣的進化。

未來之一:屬於自己的明星。我們生活在一個偶像+顏值時代,大家對於美的消費規模和要求也越來越高。活躍在影視劇上的各路小鮮肉,網路直播平臺的鋪天蓋地的顏值主播幾乎無死角的滿足著各種不同的什麼繼續求。然而,明星的數量終究是有限的,明星們的時間也是有限的,很多粉絲期待的特定明星之間的夢幻共演往往只能存在於美好的想像當中。當AI技術足夠強大的時候,我們可以根據每個觀眾的喜好為之量身打造專屬的的虛擬明星,讓那個ta只為自己唱歌,跳舞,甚至表演自己設定劇情的戲劇。在更先進的人工智慧的加持下,這一切的實現甚至不需要我們去學習音樂和創意寫作即可由程序自動實現。也許到那個時候很少有人會為了讓主播在直播裏說一句謝謝XX哥的打賞而給主播一擲千金。

未來之二:高端生活助理。很多人在看過王剛這樣的美食達人的教程以後,依然會有腦子學會了但手沒有學會的遺憾。縱然小度能夠回答我們各種各樣的問題,卻無法從手機當中走出來幫我們去完成一道菜品。不過,隨著智能家居的進化,小度這樣的虛擬助手也是可以走出虛擬擁抱具象的。通用人工智慧和通用機器人的技術的進步一直都沒有停止過。現在DeepMind等公司開發的人工智慧程序已經能夠自己探索一些簡單的電腦遊戲,例如打磚塊的規則,並且通過練習熟練掌握遊戲的玩法,我相信在不久的將來,大家的智能個人助手也能夠進化到看完大廚的烹飪教學視頻以後就能夠學會菜品的烹飪方法的程度。到那個時候,我們的家用機器人也不再是隻能幹掃地或者拖地一種任務的專用機器人,功能將更加的泛化,這樣小度就可以用自己學到的烹飪知識控制家用機器人為我們去做出精美的菜品。

未來之三:智囊和知己。《超能陸戰隊》裏呆萌可愛但是又無微不至的保護著小主人的大白不知道成為了多少人心目中的理想伴侶。像大白一樣的智能伴侶在未來將會走進每個人的生活,充分滿足人類的精神需求。

我們的精神需求大體可以分成理性的和感性的。理性的精神需求也就是我們時常面臨的各種人生選擇,小到今天外賣點什麼,大到老婆和母親掉水裡了先救哪一位。眼下正值一年一度的高考季,大量的應屆考生就需要為高考志願做出選擇。這樣的決策需要非常豐富的知識儲備,對個人信息的深入瞭解以及高度的理性,這恰好是人類,包括相當多的考生家長和中學教師的短板和人工智慧的長處。當下已經有很多技術工作者做了這方面的嘗試,諸如各種大數據支持的志願填報諮詢,儘管水平參差不齊,但我認為這些問題都是在技術可解決的範圍以內的。如果我們能夠很好的解決其中涉及到的技術與道德,法律問題,在可預想將來,我們的智能虛擬助理可以發揮人工智慧的長處來幫我們做決策,成為人類的智囊。感性的精神需求方面,虛擬個人助理將可能成為人類在情感上的助手,在孤獨時給我們慰藉,在低落時給予我們力量。目前的大眾視角下這樣的情景似乎有點難以接受,畢竟很容易讓人聯想到早先某些遊戲宅和遊戲中的女主角「結婚」的事件,但是拋開先入為的觀點,一個能夠安靜地聆聽內心獨白並給出恰當的心理撫慰的對象對很多人而言,即便在現實中也非常難以實現,也無怪乎很多人會花費大量的時間精力甚至金錢在尋找一個善解人意的聽眾。而從技術上,人類情感的識別對於人工智慧來講已經不是一個難題。如果讓虛擬助手以近乎為零的成本和社會效應滿足人類的情感需求,這未嘗不是一件好事。

現在我們的虛擬助手,正如魔鏡中的精靈,天文地理無所不知但是無法走出鏡子;但是在將來,我們將會看到它們變成神燈裏的神靈,可以隨時被我們召喚出來達成我們的心願。我相信這個未來不會太遠。


謝@李開復老師邀請。AI 20年內將會給我們的生活帶來什麼改變?很有意思的話題,回答這個問題之前,我們首先啟動search函數在自己的memory database中進行搜索,看看二十年前發生的事情。

下圖是電影《碟中諜4》中的一個畫面:男主角湯姆克魯斯通過戴上一副神奇的「眼鏡」,可以在火車站的茫茫人流中進行瞬時人臉識別。不僅識別人羣中的男女,更重要的是,還可以識別對面的人是否是指定資料庫中的敏感人物,比如特工。

這個鏡頭出現在20年前的電影中,對當時來說猶如科幻一般。當時人臉識別的技術處在什麼水平呢。我們來看看下圖,那個年代一篇名滿天下的學術論文。

當然,該論文最初的會議版本發表時間早一點,在2001年CVPR會議上。這篇論文解決的問題看題目也就知道:實時的人臉檢測。今天我們不討論這個工作具體怎麼實現,主要是藉此反映當時的技術水平。

在這個工作之前,人臉檢測,也就是判斷一張圖像上有沒有人臉,若有的話,有多少個人臉,分別有多大和在哪些位置,這些是開展人臉識別應用的前提(要知道人臉在哪)。回到現在看這是一個很簡單的任務,很多方法都能輕鬆做到,但是在當時(這個工作出來之前),確確實實是無法做到實時的(可簡單理解為檢測延遲小於500毫秒)。

回到現在,不到20年時間,人臉識別相關的應用已經取得了巨大的突破,並廣泛應用於社會生活的多個方面,包括多個場景下的身份驗證、表情識別、虛擬化妝等。類似於上述《碟中諜4》的例子也在特定場景成為現實。以20年為窗口進行對比,我們可以看到,科學技術還是顯著提升了社會生活的方方面面,將一些過去類似於科幻的場景變成現實。

20年前人臉檢測識別是科技前沿,就如當下的AI。當下社會生活中最火熱的辭彙中,AI無疑是一個。短短數年間,AI技術的發展已經推動了語音識別、計算機視覺、自然語言處理等領域諸多任務性能的顯著提升,同時也通過與醫療、交通、金融、工業製造等傳統領域的深度融合創新,開啟了許多新型應用場景。世界主要大國也將發展AI技術作為非常重要的國家戰略。那麼,再以20年為一個窗口來看,20年後的AI會是什麼樣子呢。

雖然說預測未來是很有風險,很容易被打臉的事情。但出於滿足自己的好奇心,今天還是從個人認識的角度出發進行展望下。無人駕駛、對話式AI,這兩個方面,個人認為是20年內肯定能給大家生活帶來巨大改變的技術。就看資本、政策、商業模式的成熟閉環了。中國AI看百度,百度在這兩塊業務也有專門的BG(Apollo,小度)在堅持。不管外界如何看衰,我個人還是長線看好的。

在此,談談最近在看的另外兩個領域,「類腦計算」和「AI+醫療」:

一、類腦智能:具有類人情感,像人一樣「有溫度」。

現階段AI技術雖然取得了長足進步,但其本質還是一種數據驅動、基於梯度優化的「貪心」演算法。換句話說,AI技術只是挖掘到了最大化數據差異的內容,進而提供了高質量的分類、檢測等決策判別,其並不是像人一樣的理解和推理,也不像人一樣具有情感和邏輯等。這是當前限制AI技術向前發展的核心問題。

現階段學術界和產業界都已經意識到這一問題,開始思考如何突破這一侷限。大家目前最能接受的共識時:讓AI演算法模擬人腦,當前世界上最高級的智能體之一。當前,人腦的結構和計算機制等並未完全搞清楚。短短几年內,這個領域想取得突破恐怕並不容易,但若以20年為間隔,本人對此還是持以樂觀態度。

由科大牽頭的「類腦智能技術及應用國家工程實驗室」我去參觀過,有很多讓人興奮的研究前景和成果。基於此,可以展望的是:20年後計算機可以多模仿人腦,其內在的計算技術也能有一定相似,基於此構建的各種服務和機器人可以有知識、有情感、有邏輯,可以向人類提供「有溫度」的計算服務。

當然很多人會diss,人腦的結構都沒有研究清楚,類腦的進展是否縹緲無期。眼下,AI在投資圈似乎回歸理性,幾年後AI是否會陷入又一輪低潮,這個我不知道。Deep Learning促使AI回到大眾視野。那會不會在20年內的某一天,類腦計算的某項突出成果也會像DL一樣,掀起一波全社會狂歡的熱潮呢?我持樂觀態度。

二、AI+醫療:AI重塑醫療行業,小病不用去醫院

人類都有生老病死,上千年來醫療永遠都是「朝陽」行業。從某種程度來講,醫學是一門經驗性科學。世界各國,國內各地的醫療資源分佈不均將長期存在。AI技術是突破這一核心制肘的關鍵因素。

利用AI技術基於大量高質量標註醫療數據建模學習,可以構建與人類頂尖醫生診斷水平媲美的專科AI醫生。目前在細分領域的專病種上,例如肺部疾病診斷、眼科疾病診斷等方面,AI模型已經取得了相當不錯的檢測精度。假以時日,這些模型經過進一步錘鍊後,完全可以在醫療資源不那麼豐富的地方取代人類醫生,提供初步診斷或篩查甚至更為重要的醫療服務。

當然,醫療是敏感行業,這些技術的應用和廣泛接受還需要突破倫理和認知等多個關口。但以20年來預估,我對此持以樂觀態度。屆時,醫療行業相比現在恐怕有重大變化:大家去看病時,不用去醫院,只要在網路上或者小型的機器人檢查中心就可以完成,全程無需人工幹預。只有那些比較複雜的疾病,才需要人機結合的診斷模式。


推薦閱讀:
相關文章