我們在訓練機器,讓它們錯誤地認爲這纔是人類真正的交流方式

原作者 Orin Hargraves

原出處 Medium

Gmail 用戶們,很有可能也包括你,最近應該注意到了一項“升級”,你可以用幾個簡短的短語來回覆信息。你可能已經頻繁收到過這樣的自動回覆,又或許你已經在使用這項功能了。它們簡單易用,通常還很直觀,可以大大減少收件箱的雜亂。甚至已經有人開始撰文對新功能表達喜愛和吹捧。

話說回來,某些時候,一個簡短的程序回覆郵件也許能奏效。比如你只需要接受或拒絕一個簡單的提議,確認會議的時間或地點,或者標明你已經完成一項任務時,這些壽命已經接近尾聲的電子郵件自然是能越高效地清理掉就越好。

但這些情況絕不能代表其他大多數郵件。嘗試用這樣的方式對待其他相對複雜或存在細微差別的郵件,通常都不會有好結果。

下面是幾周前我的一個朋友發來的郵件:

Gmail 推薦我用下面的其中一個選項來作爲回覆:

我都可以想到在什麼情況下我可能會用到其中一條回覆:比如我準備跟我的好朋友永不相見了,或者要向他證明我得了老年癡呆的時候。但是,那天的情形好像並不適配於上述任何一種情況,所以我以朋友該有的方式進行了回覆——用體貼和同情的方式表達了我對他生活中變化的想法和感受。

這是個極端的例子,但也說明了 Google 對人類交流的複雜性所採取的算法方式是多麼的愚蠢。它所呈現的選項或許會隨着時間的推移而改善,因爲大家都在爲其提供幫助。即使你選擇不使用 Gmail 的自動回覆,也仍然爲 Google 龐大的大數據提供了一個有用的數據點,表明“好吧,這樣做沒用。”

當然了,你選擇自動回覆郵件(如 Google 所說的“智能回覆”)對 Google 來說會更有用。在後臺中,實際可能發生的情況是這樣的:

Google 擁有全球最大量級的表達人類動態交流的書面自然語言數據,它能夠利用深度學習結合自然語言處理的方法對你的電子郵件的關鍵內容和意圖做出推斷,並將其分類。

使用這些相同的機器學習方法,就會生成並測試給定類型的電子郵件的三種可能回覆。每當人們使用其中一個回覆時,就會向Google提供一個數據點,意思是“給定消息類型 A ,人類選擇了 X 做爲恰當的回覆。”

將最後一步乘以一千次、一百萬次或更多次,直到出現一個清晰的統計模式後,Google 就可以信心十足地得出結論,當一個人的表達可以被歸類爲 A 型的想法、感受或問題時,另一個人用話語 X 來回應是合情合理的。

現在想想 Google 能用這些數據做什麼吧。也許會出現一個美好的新世界,在那裏,數字助手實際上和人類差不多。這些助手在迴應人類的輸入時所說的話或提出的問題,與一個真正的人類所說的幾乎沒有區別。

除了下面這種情況:當你用“謝謝分享!”或是“很高興你能喜歡!”或者“很酷!”來回復郵件時,你不是以一個“野生”人類的身份在回答,而是以一個已經被機器人影響的人類在做出迴應。

所以 Google 在將機器人變得更具特色,將它們的溝通方式變得與人類沒有太大區別的同時,也在把人類變得更像機器人。他們不是在評估你作爲一個不可複製的人所做出的反應,而是在審視作爲一個已經適應了機器人表達的人會怎麼做。

你正在訓練複雜的機器人,並且讓其認爲這纔是人類通常會做的事情。

例如:我和某個家人經常就照顧一個年長親屬的問題進行溝通。我們三個人都生活在不同的地方,所以我和他經常通過郵件進行交流。當我有值得分享的消息,或者我希望他告訴我一些新的變化時,我會給他發郵件。

而如今,有好幾次我發出的類似郵件後,收到的是類似於“有意思!”或者“聽起來不錯。”這樣的回覆。嗯,好吧。如果不是有趣的話,我也不會費心把它寫進電子郵件發給你們了。我寫郵件的目的不是爲了判斷你的興趣。他用手機回覆。他很忙。他很着急。他現在顯然不想被打擾。大家放棄了像人類一樣做出迴應的選擇,因爲 Google 爲他提供了這樣做的後盾。

關於電子郵件,需要記住的一點是,它是一次對話。當我們想到“交談”這個詞的時候,我們應該想到保羅·格賴斯(Paul Grice)和他 1967 年在哈佛所做的演講。格賴斯敏銳而直觀地觀察到,一場普通的談話就像是一個合營企業。

因此,它遵循的原則是,對話的貢獻應該在於促進實現交流的目的——參與者普遍理解和分享的目的。格賴斯制定了四條準則,適用於幾乎任何對話。即便我們沒有接受過相關的正式教育,絕大多數時候我們也都在遵循這些原則。

l 數量準則,人們應試圖儘可能多地提供信息,而且是儘可能多地只提供所需的信息。

l 質量準則,人們應試圖真誠,不提供虛假或沒有證據支持的信息。

l 關係準則,人們應試圖讓自己參與到討論中,說一些與討論有關的內容。

l 禮貌準則,人們應試圖儘可能清晰、簡潔和有序地說話,避免含糊不清和模棱兩可。

現在捫心自問一下,在將你的手指或鼠標移向 Gmail 的“智能回覆”中的某個選項時,是否會違反上述準則中的任何一個。如果違反了,你不僅是在欺騙與你通信的人,也是在訓練複雜的機器人,讓其認爲這就是人類通常會做的事情。

大家可能聽說過圖靈測試(Turing Test),這是艾倫·圖靈(Alan Turing)在 1950 年提出的一項測試,用來測試計算機是否有能力表現出與人類智力相當或做出難以與人類行爲區分的行動。許多人依然致力於這項工作,並在近年來取得了諸多進展。

也許有一天我們回顧圖靈測試,會認爲這是一個歷史性的里程碑。理想的狀態下,我希望這是因爲計算機真的變得無比複雜,以至於我們無法從人類的角度去了解它們。而不僅僅是因爲人類拋棄了人性的一部分,最終麻木地與我們的機器人領主保持一致的步調。

相关文章