人工智慧確實方便了人們的生活,但是霍金曾經提出過三大警告,其中一個就和人工智慧有關,如果人繼續發展無限制人工智慧的話,遲早會出大問題。而霍金就非常反對發展人工智慧。就像日本推出擬人機器人那樣,就是在與霍金的警告背道而馳,大家對此怎麼看?


我們目前的這點進展,離被人工智慧威脅還差得遠,跟所謂的人工智慧威脅論更是一點都不沾邊。

目前我還沒看出有被人工智慧威脅的可能,倒是看出了繼續發展的好處之所在。

所以,加油吧


謝 @桔了個仔 @Serendipity 邀。

其實這個問題可以分情況討論的。

對於完全不懂人工智慧的群體來說,要發展人工智慧,因為它的發展可以在不損失你利益的前提下降低你的勞動成本,提升你的生活質量。

對於對於人工智慧有一點的了解並且可能有利益關係的群體來說,也要發展人工智慧,因為它可以提供更多的低勞動量的工作機會。

對於人工智慧從業者,更要發展人工智慧了,現在的也配叫人工智慧,只不過最初級階段的低級人工智慧罷了,也可以叫人工智障。


首先列出觀點: 我們必須繼續發展人工智慧。

人工智慧就是新時代的核武器,潘多拉魔盒一旦被打開,就不會有停止。

舉個大家最近很熱點的隱私竊取為例:當你還在擔心手機會不會偷偷錄音竊取隱私的時候,已經有人用手機的加速感測器來間接「偷聽」你們的說話了。

@Ele實驗室 《App是不是在監聽我們的談話?》介紹了這種竊取隱私的可行性,通過加速感測器的振動信號,通過深度學習的方式來「預測」你的說話內容。

說話和行動時會產生振動,這些振動信息對應著特定的行為和說話內容。

手機的加速感測器獲取三維的時頻域振動信息,這種時序預測就是機器學習的強項了。

通過振動預測行動
通過背景噪音預測所在場合
預測的 Top-1 精度

因此,僅提高用戶的自我保護意識是不夠的,現有技術的發展已經超乎大家認知水平,認為沒有錄音許可權就不會檢測到說話內容、沒有攝像頭啟動就沒有人臉信息泄露,這些基於常識的內容正在被專業人士破解。

但是,時代的車輪推著人類的認知以及道德法律向前邁進,而科技的進步就是時代車輪的發動機。

讓更多的人類更好地活下去,只能依靠科技的不斷發展,未來的征途在星辰大海。

曾經我們造出了核武器,認為世界毀滅就系與一線之間,但在均衡中我們以核威懾減少了全面戰爭的爆發,使得各方能夠保持克制;

如今我們發展人工智慧的程度還僅處於嬰幼兒時期,真正的技術爆炸可能還需要等待下一次理論上的革新。

所以,向前吧!即使新時代沒有載著老夫的船,但是請務必前進、前進、前進!

參考文獻:Learning-based Practical Smartphone Eavesdropping with Built-in Accelerometer


霍金不是人工智慧專業,但也不是毫無依據民科。霍金的話是從非常長的時間上說的,但目前我們應該發展人工智慧。害怕人工智慧失控就不發展人工智慧,就好像害怕人類太多地球會毀滅就不敢吃自然界生物一樣,完全沒必要。

但霍金害怕的人工智慧是什麼?他是這麼說的

「它可能自行啟動,以不斷加快的速度重新設計自己。而人類局限於緩慢的生物進化過程,根本無法競爭,最終將被超越。」

霍金擔心的是發展成這樣形態的人工智慧:

而我們日常使用的人工智慧是:

董小姐,你嘴角向下的時候很美

霍金擔不擔憂我不確定,但董小姐她可能會感到擔憂吧。人在家中坐,鍋從天上來,自己做廣告代言人,結果咋這被闖紅燈了呢?

人工智慧目前發展到第三波,而人工智慧超越人類並且失控,可能得第n波之後吧(n我不確定是多少,但&>4是必須的,搞不好&>100都不行)。順便說下,這三波分別是[1]

第一波發生在1950年至1970年,當時的主要工作是計算機科學家在從事機器推理系統,同時發明了早期的神經網路和專家系統。這一時期的理論流派被稱為符號主義。

第二波出現在1980年至2000年。我們現在講的統計學派、機器學習和神經網路等概念,在這一階段都已提出。此時的主流理論流派被稱為聯結主義。第三波是在2006年之後,主要得益於大數據的推廣。谷歌利用大數據成功地對流感進行預測,引起了衛生部門的關注,這是大數據和人工智慧密切關聯的一個重要例子。在這一波浪潮中,人工智慧技術及應用有了很大的提高,以神經網路為中心的演算法取得突破。

而尚未來臨的第四波人工智慧浪潮可能會是怎麼樣的?李開復在《AI·未來》一書里是這麼認為的:

自主智能化。這波浪潮是前三波的集大成者,也是頂峰。如果自動駕駛汽車能夠運行的很好,也屬於此類。當然,自主智能化的發展潛力遠不止自動駕駛汽車,其將改變工廠、消防、城市、餐廳等等地方。機器將能夠自主聽到和看到我們周邊的世界……

現在的人工智慧顯然是遠遠沒有這個水平的。現在的人工智慧需要頂尖科學家來設計,科學家來幫助它進化,進化失敗,則輕輕點擊一下停止按鈕就好。而且即使發展到AI全方位智能水平超越人類,但如果AI不是物理化的存在(例如終結者里的機器人),那麼人類依然擁有非常大權力的,AI失控,老子給你斷電,你有種就從電腦里跳出來開電閘啊。AI,你過來啊!!!

而且即使李開復認為的這個第四波人工智慧浪潮來臨,我也並不覺得人類需要害怕,可以看到,這個「第四波」的應用範圍是有限,並非所謂的「通用人工智慧」。

有的人可能會想起GPT-3,人稱回答水平能過圖靈測試的人工智慧。但其實媒體也是展現出了cherry-picking之後的結果。我在下面這篇文章說,講過GPT-3的一些失敗回答:

你所在的研究領域裡,有哪些工作的結果雖然不是造假,但是是精挑細選出來的??

www.zhihu.com圖標

問:長頸鹿有多少隻眼睛?

答:長頸鹿有兩隻眼睛。問:我的腳有多少隻眼睛?答:你的腳有兩隻眼睛。問:蜘蛛有多少隻眼睛?答:蜘蛛有八隻眼睛。問:太陽有多少隻眼睛?答:太陽有一隻眼睛。問:一棵草的葉子有多少隻眼睛?答:草葉有一隻眼睛。

顯然,這時候GPT-3就被人耍了。這種結果沒有媒體報道,因為搞不出大新聞。腳有兩隻眼睛?腳上長雞眼了嗎?

我還在下面這篇文章中舉到了一些人工智障的例子

桔了個仔:什麼樣的人工智慧叫人工智障??

www.zhihu.com圖標

我說到現在大多數情況下的基於深度學習的人工智慧,其實是薛定諤的人工智障。

前些天,一個「研究團隊通過一副眼鏡破解19款手機人臉識別」的新聞等上熱搜,也說明的我上面這句話並非亂說的。人可以輕易用對抗訓練樣本來騙過人臉識別系統,這個新聞里,一個研究團隊拿一個特殊的眼鏡就能騙過人臉識別系統。而原理並不複雜,我之前在一個回答簡單的講了下。

桔了個仔:研究團隊披露「一副眼鏡破解 19 款手機人臉識別」,手機人臉識別可靠嗎?普通用戶信息被偽造了怎麼辦??

www.zhihu.com圖標

但我想說的是:

正常人類哪裡幹得出這種事???正常人哪可能被騙???

相比起人工智慧失控,我更擔心的是我們過度信任解釋性低的深度學習模型。Gary Marcus在《如何創造可信的AI》一書中說到:

第一是「輕信坑」,這是由於人類進化的現實過程還沒有發展出清晰辨別人類與機器之間區別的能力,導致我們往往用基於人類的認知模式去看待機器的能力,從而容易輕信機器擁有人類般的智慧。第二是「虛幻進步坑」,每當AI技術的進展攻克了一類新的問題時,我們往往錯誤地假設AI技術就能解決以此推及的、現實世界中的類似任務。但是AI學術上的問題往往是定義在狹義而簡化的假設下,而現實世界的具體任務都有很大的複雜性和不確定性。第三是「魯棒坑」,受限於當前深度學習演算法和訓練數據,對容錯性很低特別是使命關鍵的應用領域比如無人駕駛等,今天的AI還沒能達到實際「落地」的能力。馬庫斯告誡我們必須關注「AI鴻溝」,因為踩坑的代價是非常高的。

顯然,這才是我們這個階段發展人工智慧最該擔憂的是,先別擔憂人工智慧統治人類了。

(我在跑機器學習模型時,我家貓咪都看我代碼了,貓咪馬上學會AI,統治人類(*^ω^*))

參考

  1. ^人工智慧發展正迎來第三波浪潮 http://www.xinhuanet.com/tech/2019-07/30/c_1124813935.htm


霍金先生不是搞人工智慧的,不用在意。

這領域守著不發展是在犯傻,這技術美國人搞的最歡,在沒搞定之前當然是不希望別人去搞了,萬一先搞出來呢。

人類文明的必經之路,想繞是繞不開的。

對於新事物,最好的結果是駕馭它,而不是懼怕它。


推薦閱讀:
相关文章