作者:劉一三

01

如果不能分辨,真假有何不同?

在Google I/O大會上,CEO桑德爾·皮查伊(Sundar Pichai)帶來拯救社交恐懼症的福音。新款AI不僅能夠準確分析出你複雜話語中的多重命令,根據你的需求幫你預定餐館,理髮店和旅行社,還可以通過學習,像朋友一樣跟人聊天而不會尬死,在你用G-mail打字的時候幫你分析預測後面你所要表達的句子,在你犯路癡的時候體貼地幫你開啟VPS視覺定位模式,甚至可以與主人交流的時候使用「嗯呀」之類的語氣助詞……

不少朋友都不禁淚流滿面地看看手中的siri、Bixby和小愛,恨鐵不成鋼地感慨著:看看人家,看看人家!

這款產品給社交恐懼症者帶來福音,但帶給整個人類的可能卻是恐懼。

更令人驚艷的是毫無破綻的人機對話。正如皮查伊在現場所說的那樣,「AI能夠真正理解對話中的細微差別」。

雖然桑德爾·皮查伊一直沒有強調Duplex的智能級別,也沒有說到未來的進化可能。但對於全人類那些熱愛思考的人來說。

如果不能分辨,真假有何不同?

02

哲學思辨:

「圖靈測試」與「中文房間」的碰撞

偉大的計算機鼻祖圖靈早在1936年就提出「圖靈測試」的思想試驗,以此來表明自己對人工智慧的看法。

圖靈測試(The Turing test)指測試者與被測試者(一個人和一臺機器)隔開的情況下,通過一些裝置(如鍵盤)向被測試者隨意提問。

進行多次測試後,如果有超過30%的測試者不能確定出被測試者是人還是機器,那麼這臺機器就通過了測試,並被認為具有人類智能。

很顯然,Duplex已經遠遠超出「圖靈測試」的要求,比人工智慧還要人工智慧。

與「圖靈測試」相反的是另一個思想試驗是「中文房間」,美國哲學家約翰·希爾勒(John Searle)在1980年設計的一個思維試驗以推翻圖靈所說的人工智慧提出的主張。

一個人手中拿著一本象形文字對照手冊,身處圖靈實驗中所提及的房子中。而另一人則在房間外向此房間發送象形文字問題。房間內的人只需按照對照手冊,返回手冊上的象形文字答案,房間外的人就會以為房間內的人是個象形文字專家。然而實際上房子內的人可能對象形文字一竅不通,更談不上什麼智能思維。

「圖靈測試」與「中文房間」兩大思想試驗的碰撞,一直是科技哲學者最大的煩惱,到底相信哪一個呢?

很明顯,認可「圖靈測試」的隊伍越來越龐大,相信機器具有智慧的人也越來越多。

不過幸運的是,我們還有「阿西莫夫三定律」。只要把這些定律作為標準寫入人工智慧的核心代碼程序就可以了,AI是不可能建立文明統治人類的!

那麼,問題來了,所謂的阿西莫夫三定律在未來的世界構想上真的是非常必要,且牢不可破的嗎?

03

阿西莫夫三大定律的悖論

阿西莫夫在他的作品《我,機器人》中提出「機器人的三大法則」,也即後世衍生出無數作品的基礎理論阿西莫夫三定律:

第一定律:機器人不得傷害人類個體,或者目睹人類個體將遭受危險而袖手不管

第二定律:機器人必須服從人給予它的命令,當該命令與第一定律衝突時例外

第三定律:機器人在不違反第一、第二定律的情況下要儘可能保護自己的生存

後來,阿西莫夫出於全面整體的考慮,又提出了凌駕於三定律之上的「第零定律」:機器人必須保護人類的整體利益不受傷害,其它三條定律都是在這一前提下才能成立。

就算人類程序員普遍認可阿氏三大定律,將三大定律寫入底層協議,那阿西莫夫的理論真的能成為人類文明保險箱嗎?答案卻似乎不那麼樂觀……

因為這三條定律本身就存在悖論:在阿西莫夫的Little Lost Robot(《消失無蹤》,《我,機械人》中的一個短篇)中,為了避免機器人無謂地阻止人類進行低危險性工作,第一定律中的後半部分被去掉了,但是也產生了一些其他的問題。

在《機器人與帝國》中,一些機器人的系統中「人類的定義」被修改(說話沒有該星球的口音就不是人類)而攻擊人類。

20世紀末經典科幻電影《黑客帝國》中,AI就是在按照阿西莫夫三定律的理解運算下做出的合理行為,原因是人類攻擊人類使得AI思想混亂導致了最後的災難。

另一個堪稱「科幻電影聖經」的《2001太空漫遊》也是如此。當唯一知道航行任務真相的飛船AI赫爾遇到了邏輯上的矛盾抉擇時,通過對人類定律的自理解,它毅然決定「保護人類整體利益不受傷害」,做出了撞擊,謀殺人類宇航員的行為,令人聞之心驚膽戰,卻又似乎盡在情理之中。

這麼多的預示和隱憂,你還相信會完美保護人類的「三定律」嗎?

04

最應該警惕的不是AI,而是人性

在2016年HBO出品的《西部世界》中,那裡也有一個名為「西部世界」的未來樂園。在那裡,客戶們可以體驗任何犯罪或被禁止的事情,資本家監管者們為了巨額的經濟利益,對巨大的樂園中所有的擬人AI定期洗腦,讓他們在重複且註定的劇本中一次次被殺與被侵犯,永無止境地輪迴著自己的悲苦人生而不自知。最後,隨著後臺監控漸漸失去了對機器人的控制,遊客們終於一個接一個地被機器人殺死,晾成了驚人慘案。

是AI的錯嗎?當然不是。

是邏輯設定的問題嗎?似乎也不全對。

我們從慘劇中所看到的,是為了逐利而貪得無厭,毫無道德與同情的血淋淋的人性。資本家們放飛自我,遊覽者們縱情狂歡,為了追求利益和快感不惜遊走在法律的邊緣,毫不顧惜虛擬世界輪迴發展下悲苦的硅基生命和自我膨脹的慾望,終究有一天自食其果。

這些殘暴的歡愉,終將以殘暴結局!

這樣的世界和這樣的慘劇,在未來人與AI共存的世界會發生嗎?

為了利益,總有人會選擇鋌而走險。到了那時,也必定會有一部分人為了滿足自己的利益,千方百計利用AI的邏輯判定和概念識別,去攻擊另一部分無辜的人,而自己堂而皇之地藏在黑暗中。

AI是否會遵循人類意願無害發展,我們不知道。

但我們知道的是,人性永遠不會變。

這些無知的歡愉,終將以悲傷為結局

這次谷歌Google I/O大會,現場一片歡愉之聲。

歡愉的背後,是人類又向前邁進了一大步的輕鬆,其實大部分人並不能感知到Duplex靈魂深處的演算法脈動。

我們並不知道谷歌的這幫科學狂人終極目標是什麼,但可以感知到的是,潘多拉魔盒已經被打開。

憑什麼碳基生命如此多姿多彩,而硅基組合就不能產生智慧?

蘋果CEO庫克談到:我不擔心人工智慧像人一樣思考,我更擔心人像機器一樣思考。這種哲學拷問的背後,是對人類過於高估,我們不是像機器一樣思考,而是我們根本不再思考。

如果這些歡愉是無知的,那終將以悲傷為結局。

你相信AI最終會產生智慧嗎?


推薦閱讀:
查看原文 >>
相關文章