最近AI視頻明星換臉很火,deep fake做的很逼真。如果用演算法造假的明星視頻再配上語音模仿的話,就可以以假亂真為所欲為。請問有沒有什麼演算法能夠檢測是否應用了AI換臉功能,深度學習Ai應該做不到百分百沒有缺陷,能否檢測當前視頻的不和諧處給出一個可能運用了換臉功能的概率


說一個傳統方法吧,之前在做活體檢測的時候用過,ELA(Error Level Analysis),通過對壓縮後和壓縮前圖像雜訊層面的difference分析,可以用來辨別圖片中是否有後期編輯過的部分。

換臉任務應該屬於將視頻幀中的部分區域(即頭部)用生成的人臉去代替,或者用別的人臉代替?那麼編輯後的照片通過ELA分析後應該會顯現出異常雜訊響應。具體的如何通過原圖的一致性和雜訊圖的非一致性判斷那個區域被編輯過可以參考下面鏈接:

FotoForensics?

fotoforensics.com圖標


我來答題啦。事實上,大約 30% 經過 AI 換臉的合成照片、合成視頻是人類僅憑肉眼無法識別的,很容易被當作真實信息進行再次傳播,這已成為一個亟待解決的社會性問題。

但是AI可以鑒別AI。

為了解決這個問題,學界與業界正在研究如何利用 AI 技術去反向鑒別圖像、視頻的真偽。AI 換臉與換臉鑒別如同一場攻防戰,處於防守方的換臉鑒別想準確預測進攻方的路線,是非常困難的。

除了 DeepFake,市場上存在多種換臉技術,不同演算法生成的圖像結果千差萬別,難以使用同一個換臉鑒別模型解決所有換臉技術的進攻。與此同時,換臉鑒別模型還需要對目前不存在、但未來可能出現的換臉技術也具有判別力,如何去預測未來換臉技術的發展方向,提前布防,也是重要課題。

目前,最常被使用的 AI 換臉演算法有三種:DeepFake、FaceSwap 和 Face2Face。其中,DeepFake 基於大家所熟知的 GAN 技術,對於它所生成的臉,人類的識別率大約為75%*。FaceSwap 是一個學習重建臉部特徵的深度學習演算法,可以對給出的圖片進行模型替換,人類對於此類換臉的識別率也是75%左右*。Face2Face 則是用其他真實的人臉去替換原本的人臉,不涉及人臉的生成,對於它製造的臉,人類的識別率只有41%*。作為目前學術界最大的合成視頻資料庫之一,由慕尼黑技術大學創建的 FaceForensics 資料庫涵蓋了經過以上三種換臉演算法編輯的公開視頻,以供學術研究使用。

多年來,微軟亞洲研究院在人臉識別、圖像生成等方向都擁有領先的演算法和模型。在 CVPR 2018上,微軟亞洲研究院視覺計算組發表了論文「Towards Open-Set Identity Preserving Face Synthesis」,其中的技術能夠利用開放數據集中的數據,逼真地合成保留圖中人臉身份信息的圖像。這些技術積累讓研究員們對「進攻方」的技術原理有深刻的理解,進而能夠更有針對性地研發換臉鑒別演算法。

圖1:微軟亞洲研究院開發的模型分別提取蒙娜麗莎和赫本圖片中的身份信息和屬性信息進行合成

因此微軟亞洲研究院研發的換臉鑒別演算法,基於 FaceForensics 資料庫的測試結果均超越了人類肉眼的識別率以及此前業界的最好水平*:對於 DeepFake的識別率達到了99.87%,對於 FaceSwap 的識別率為99.66%,對於Face2Face 的識別率為99.67%。

表1:針對已知換臉演算法的識別測試結果

更重要的是,一般的換臉鑒別方案需要針對每一種換臉演算法研發專門的換臉鑒別模型,想要鑒別一張圖像的真偽,需要逐個嘗試所有模型。這個演算法則可以用一個通用模型,去鑒別不同類型的換臉演算法所製造的臉。與此同時,研究員還對人臉合成時難以處理的細節進行檢查,如眼鏡、牙齒、頭髮邊緣、臉部輪廓,將它們作為演算法關注的重點,從而提高識別準確率。相比其他同類技術,這一換臉鑒別演算法很好地應對了動態幅度大、有遮擋、有表情變化的難題。

除了準確識別已知演算法合成的圖像、視頻,換臉鑒別的另一大挑戰是應對尚未出現的新演算法。將現有的換臉鑒別演算法直接用於新演算法時,它們的有效性往往會顯著下降。為此,微軟亞洲研究院提出了一種通用換臉鑒別方法。為了更好地考察這一演算法對未知換臉演算法的鑒別能力,研究團隊用真實圖像對模型進行了訓練,再讓其辨別多種未知換臉演算法生成的圖像。實驗結果表明,與基線演算法相比,新演算法對各類換臉演算法的識別率均有大幅提升。隨著研究團隊對模型的進一步優化,通用鑒別模型一定能越來越精確地幫助我們應對新演算法所帶來的問題和挑戰。

表2:針對未知換臉演算法的識別測試結果

AI 技術正在給人類的工作和生活帶來顛覆性變革,但類似 DeepFake 這樣的技術所帶來的隱私泄露、虛假信息等問題也共生共存,這也是新技術發展的必經之路。

微軟總裁 Brad Smith 在談及其新書《工具與武器:數字時代的希望與危險》時所說,「如果你的技術改變了世界,你就有責任幫助世界應對這些變化。當我們深入研究這些問題時就會發現,其實大多數問題與過去有相似之處,例如廣播出現時遭遇了公眾反抗,相機的發明讓人類擔心隱私被侵犯。不同只在於今天的變化速度更快。」

我們研發換臉鑒別模型,是希望用技術手段去應對新技術所帶來的問題,但這還不夠,從更廣的範圍看,所有的技術開發者都應承擔起相應的責任。因此微軟強調要設計負責任和可信賴的 AI。在整個社會層面構建負責任和值得信賴的 AI 也需要全行業乃至整個社會的共同努力,將創造技術、使用技術、管理技術以及受技術影響的人和組織匯聚在一起,才能確保最終以負責任的方式去設計 AI,真正造福人類。

*R?ssler, Andreas, et al. Faceforensics++: Learning to detect manipulated facial images, 2019


本賬號為微軟亞洲研究院的官方知乎賬號。本賬號立足於計算機領域,特別是人工智慧相關的前沿研究,旨在為人工智慧的相關研究提供範例,從專業的角度促進公眾對人工智慧的理解,並為研究人員提供討論和參與的開放平台,從而共建計算機領域的未來。

微軟亞洲研究院的每一位專家都是我們的智囊團,你在這個賬號可以閱讀到來自計算機科學領域各個不同方向的專家們的見解。請大家不要吝惜手裡的「邀請」,讓我們在分享中共同進步。

也歡迎大家關注我們的微博和微信 (ID:MSRAsia) 賬號,了解更多我們的研究。

發佈於 2019-11-04繼續瀏覽內容知乎發現更大的世界打開Chrome繼續馭風者馭風者?

北京航空航天大學 計算機科學與技術碩士在讀

關於檢測視頻里是否用了AI視頻換臉演算法,讀這一篇很有用。

馭風者:Deep Learning for Deepfakes CreationDetection閱讀筆記?

zhuanlan.zhihu.com圖標


關於檢測視頻里是否用了AI視頻換臉演算法,讀這一篇很有用。

馭風者:Deep Learning for Deepfakes CreationDetection閱讀筆記?

zhuanlan.zhihu.com圖標

直接上論文

F. Matern, C. Riess and M. Stamminger, "Exploiting Visual Artifacts to Expose Deepfakes and Face Manipulations,"2019 IEEE Winter Applications of Computer Vision Workshops (WACVW), Waikoloa Village, HI, USA, 2019, pp. 83-92.

doi: 10.1109/WACVW.2019.00020


雙軌演算法檢測

這種演算法能識別未經修改的圖像和單像素級圖像里的假圖像,鑒定準確率在 71% 到 95% 之間,具體鑒定情況取決於使用的樣本數據集。

例如,假設將一隻鳥的普通圖像粘貼到一個空樹枝的圖片上。

圖像經過修改的部分周圍的邊界往往包含著操作過的痕迹

在這種情況下,逐像素演算法可能會將鳥爪周圍的像素標記為有問題的,而編碼器演算法會在更大的圖像中進行鑒別,識別更大範圍內的異常。只要這兩種神經網路標記出鳥周圍圖像的同一區域,喬杜里團隊的演算法就會把鳥和樹枝的照片歸類為可能的 Deepfake 照片。

來源:能把你偽造成色情電影主角的「換臉 AI」,可以用新方法兩步破解了

侵刪


拿神經網路訓練一個識別AI換臉的。

然後換臉演算法再增加一個loss參數對抗識別。然後可以再訓練一個識別新的換臉系統的。然後可以再訓練。。。

同意匿名的答案,哈哈哈哈哈


老爹:要用魔法來打敗魔法。


拿神經網路訓練一個識別AI換臉的。

然後換臉演算法再增加一個loss參數對抗識別。

然後可以再訓練一個識別新的換臉系統的。

然後可以再訓練。。。

不要懷疑,真的可以這麼玩。囧


推薦閱讀:
相关文章