本文由 「AI前線」原創(ID:ai-front),原文鏈接:99%的人並不知道AI生成人臉已達到什麼水平

策劃編輯 | Natalie

作者 | Vincent

AI 前線導讀:近日,利用生成對抗網路(GAN)自動生成動漫頭像在網路上引發了熱潮,各種或呆萌或高冷的頭像並非來自任何一部動漫,而是由神經網路模型直接生成的。此後,一些更加瘋狂的開發者搞出了更加不可思議的模型:直接生成人物照片。

更多優質內容請關注微信公眾號「AI 前線」(ID:ai-front)

先來玩兒個遊戲

先來玩兒個簡單的小遊戲,猜猜看下面這兩張圖中哪一張是真實的照片:

選好了嗎?答案揭曉了,真實的照片是——右邊的這位美女!

是不是有些不可思議?左邊這張怎麼看都像是一張普通的照片啊,怎麼會是 AI 生成的呢?但事實就是如此,左邊的這張照片中的美女,沒有國籍、沒有姓名,根本不存在於這個世界。沒錯,這就是生成對抗網路 GAN 的強大威力。

如果你覺得這道題太簡單,你也可以猜猜看本文封面圖的兩個漂亮妹子哪個是真實的?哪個是AI生成的?

「在互聯網上,沒人知道你是 AI」

上面的這個遊戲是來自這個網站的作品:whichfaceisreal.com ,感興趣的讀者可以自己去感受一下。

這個網站的作者是來自華盛頓大學的兩名教授:Carl T. Bergstrom 和 Jevin D. West,他們分別是生物學教授和信息科學教授。在網站的介紹頁面,他們寫了這樣一段話:

「在互聯網上,沒有人知道你是一隻狗。」

他們這樣寫道:

過去的四分之一個世紀裏,我們在漫畫裏展示的教訓中不斷成長,互聯網上的陌生人可能是任何身份、來自任何地方。音樂論壇上的管理員可能是住在他媽媽房子地下室的小屁孩,聊天室裏的一個十四歲的女孩可能是一名臥底警察,郵箱中找你重金求子或者讓你繼承遺產的女富商更是讓人一眼看過去就知道是騙子。

雖然我們已經學會不再相信對方的用戶名和文字介紹,但是照片卻不是這樣。我們曾經一直相信,誰都無法憑空地合成一張圖片,一張照片上的人物必定是來自現實中的某個人。當然,一個騙子可能用的是其他人的照片,但這樣做是一個冒險的策略,在谷歌利用圖片搜索進行反向查找,總能找到照片的來源。所以我們傾向於信任圖片,帶圖片的商家資料顯然更可信,在約會網站上的照片可能比本人差距要大很多,但是因為有照片,我們總能找到它一定來源於某個人。可是,新的逆向機器學習演算法打破了這一規則,它可以讓人們快速生成從未存在過的人的「合成照」。

這些照片都是 AI 生成的,你相信嗎?

計算機很好很強大,但你作為人類的視覺處理系統其實更好。如果你瞭解一些技巧,就可以一眼就看出這些假貨,至少目前是這樣。用於生成它們的硬體和軟體將繼續改進,並且可能只用幾年時間就能騙過專業的檢測系統。

我們的目標是讓您瞭解:網路上的身份可以輕鬆偽裝,並幫助您一目瞭然地發現這些騙局。

萬「惡」之源:StyleGAN

這個網站的作者強調說:他們並不是這套模型的原作者,而是使用者,真正的作者是來自知名半導體公司英偉達的幾位工程師:Tero Karras,Samuli Laine 和 Timo Aila,他們基於 Ian Goodfellow 及其同事在 Generative Adversarial Neworks(GANs)的早期工作而進行的研發,做出了這套名為:StyleGAN 的模型。

2019 年 2 月,圖形硬體製造商英偉達發布了照片級真實面部生成軟體 StyleGAN 的開源代碼。該軟體採用生成對抗網路(GAN)方法,利用兩個神經網路互相訓練,一個試圖生成與真實照片無法區分的合成圖像,另一個試圖分辨出差異,這樣訓練幾個星期後,圖像創建網路可以生成像上面展示的那樣以假亂真的圖像。

更多依靠 StyleGAN 合成的照片

除了對抗性網路系統的代碼之外,NVIDIA 還以神經網路權重的形式發布了數據,用於完整訓練的模型,以便用戶可以繞過漫長的訓練過程並立即開始生成面部合成照。在訓練過程中,GAN 需要一組真實的面孔來學習,NVIDIA 提供的網路擁有了兩個大型面部照片集合 CELEBA-HQ 和 FFHQ,前者包括數以千計的名人面孔,後者包括根據創意公共許可證發布到 Flickr 的 70,000 張面部照片。

用於訓練的來自來自 [FFHQ 數據集](https://github.com/NVlabs/ffhq-dataset) 的真實面部照片

除了我們上面展示的網站,由 StyleGAN 合成的照片還發布在另一個網站上:thispersondoesnotexist.com

訪問者每刷新一次就會生成一張新的照片。不過,畢竟是依靠演算法生成的圖片,總有玩兒脫的時候,下圖展示的就是一些合成失敗的案例:

扭曲的下巴與詭異的帽子a
「分筋錯骨手」

人臉都能合成了,還有安全可言嗎?

雖然合成人臉照片很酷,但是這樣的做法不免的引起了網友的恐慌。有不少人表示:人臉都能合成,安全問題該如何保證?

我們都知道對話機器人已經部分取代了客服的工作,不少銀行、商家的客服都已經是 AI 了。我們的編輯前不久就接到一通來自銀行的客服電話,聲音雖然仍有明顯的合成痕跡,但已經很貼近真實的人聲了。

與你對話的是 AI,給你看的照片也是 AI,就連視頻裏的人物都可以利用 deepfakes 來進行「換臉」,人工智慧雖然極大地方便了我們的生活,但由此帶來的安全隱患缺不得不引起重視。人臉識別目前幾乎是最為普及的 AI 技術了,目前尚不清楚是否能夠依靠「換臉」這樣的技術手段騙過此類系統,但是由於這種手段的存在,總讓人難以放心。

最後彩蛋

本文封面圖同樣來自文中提到的網站whichfaceisreal.com,圖中左邊的漂亮妹子是AI生成的,而右邊則是真實存在的。你猜對了嗎?

今日薦文

點擊下方標題即可閱讀

獨家!微博深度學習平臺如何支撐4億用戶愉快喫瓜?

面向22W+AI愛好者、開發者和科學家,每週一節免費AI公開課,囊括上萬人的AI學習社羣,提供最新AI領域技術資訊、一線業界實踐案例、搜羅整理業界技術分享乾貨、最新AI論文解讀。回復「AI前線」、「TF」等關鍵詞可獲取乾貨資料文檔。

如果你喜歡這篇文章,或希望看到更多類似優質報道,記得給我留言和點贊哦!╰( ̄ω ̄o)

推薦閱讀:

相關文章