前一段時間,我們的吉吉吳寫過一篇關於人臉識別與信息安全的文章,其中介紹了當下的人臉識別技術以及運用人臉識別技術的公司對用戶上傳的個人面部圖像的運用問題,同時,還引發了一個討論:如果人臉可以用於驗證、解鎖、支付等場景,那麼人的面部圖像被隨意傳播是否也成為了一種安全隱患呢?

畫風奇異的「AI換臉」這個問題的討論還沒有最終結果,又一個關於人臉的人工智慧技術就進入了大眾輿論的視野中,那就是「AI換臉」。相比於之前提到的人臉識別技術,這個「AI換臉」技術在一開始出現就沾上了一些不可描述的內容。比如,你現在搜索「deepfake

s「,出現頻率最高的內容是這樣的畫風:

而某度為我們提供的相關搜索內容就更迷,是這樣的:

作為技術的「AI換臉」有不明真相的朋友可能會懵逼了:這都什麼跟什麼啊?怎麼有一種搜索某類電影女演員的名字時的感覺?這就要首先了解一下這個「deepfakes「與」AI換臉「到底是什麼了。簡單看一下維基百科做的介紹:

簡單來說,這是一套深度學習的模型,它通過「生成性對抗網路「(generative adversarial network,也就是我們常說的GAN)這種機器學習的技術對現有的圖片資料進行深度分析的和學習,把A的面部關鍵信息記錄下來,並且將這種信息反覆重建和自我改進,最終可以完全自主地生成一張A的臉,並模擬它的大部分表情。下一步,當然就很簡單,只要把這張臉再貼到任意一個視頻中的B 的身體上,「換臉」就完成了。值得一說的問題是,這個技術的核心並不在於可以把臉移植,而在於可以複製一張臉,AI基地一直秉承的原則依舊是,技術是工具,人才是目的。因此,這個「deepfakes「的學習模型本身可以說是中性的,可是在運用上,就出現了一些問題。「被「香艷的女神們從上文的截圖裡,我們可以直接地感受到,顯然那些羞羞的事情才是人民大眾更為喜聞樂見的,有需求自然就會有市場,加之前一段時間的「deepfake「框架在github上被開源,人們可以像下載一個APP一樣獲得這個框架。同時,deepfake更為貼心的一個地方在於,它本身的訓練方式已經十分成熟,從獲得一個原始的框架到將它訓練到可以模擬一個人的臉,只需要2萬張左右的照片。2萬張照片是什麼意思呢?一段15分鐘左右的每秒為24幀的視頻就可以實現這個數量。接下來,你只需要靜靜等待deepfake用這段視頻進行訓練就可以了。

在網友提供的實際案例中,我們可以看到,想要將一段幀數為15k張圖像的視頻中的主人公A的臉換成你想要的目標B,只需要找到有B臉部特寫鏡頭的6-8段視頻,每個視頻3到5分鐘,每秒20幀,就可以交給deepfake進行訓練,這其中,模型會自動過濾掉那些沒有面部特寫的鏡頭。如果以NVIDIA GTX 1080 TI GPU的算力來說,總訓練時間約為72小時,也就是3天的時間。一句話來說,一段15K幀的視頻(時長10分鐘左右)只需要3天左右的時間就可以完成換臉了。按照這樣的換算方法,一部常規的電影(去掉片頭和片尾字幕)一般在90分鐘左右,只需要不到一個月的時間就可以完全換個主角來演。

在互聯網這樣的環境里,時時刻刻都有人想踐行一些「大膽的想法「,於是,一夜之間,蓋爾加朵、斯嘉麗約翰遜、艾瑪沃特森等女神都突然有了」新作品「,可謂」一種難求「。這其中有些視頻處理的質量還很高,幾乎完全看不出是臉是被移植上去的。

換臉技術可不只會產出桃色新聞這樣說來,deepfake的危害似乎是有限的,真的是這樣嗎?我們要明白一點,在大眾層面,桃色新聞的傳播度是最廣的,但是我們不能因為關於deepfake的桃色新聞傳播廣,就認為它僅是滿足宅男惡趣味的邪惡小工具。事實上,混跡於1024論壇上的餓狼們做這些事情還主要是處於「情懷「,而在另一些場景中,deepfake的應用就展露出了一些恐怖的畫面,比如下圖中的奧巴馬:

如果不告訴你左邊的是假的,你能分辨出來嗎?如果你覺得靜態圖沒有說服力,那麼下面這個「川普「的現場演講,可能會讓你對這個情況有進一步的認識:

當技術宅還在為「情懷「而狂虐自己的GPU時,另有目的的組織早已組建起團隊開始對特定目標進行精準的識別和複製了。我們可以想像一下,越是知名的公眾人物在公開平台所擁有的視頻資料就越多,那也就意味著複製他們臉的技術難度就越小。尤其是政客,他們大多數的視頻都是半身特寫,如果他們的面部模型被製作出來(事實上已經製作出來了),那麼能夠產生的影響是不可想像的。有辦法控制這種情況嗎很遺憾,在目前的狀況下,我們還沒有一種制度或者技術手段能夠很好地控制這種情況。以前兩天斯嘉麗約翰遜的例子來說,即使作為明星的她請得起高級律師團隊,也可以獲得更多的信息資源,可是對於這樣事情能做的仍然很少,最終連起訴泄露隱私都做不到,只能以侵犯肖像權來提起訴訟。可是,我們都知道,就拿上一次好萊塢私照泄露事件來說(斯嘉麗也是其中的受害者之一),在網路的大海中,法律最終也難以將所有的傳播者繩之以法,同時也很難查找到散播信息的源頭。在這個事件中,我們看到的最大的一個問題就是,隨著新技術的不斷湧現,我們的現有制度已經很難快速應對其中可能會發生的情況了。同時,隨著技術的開源和去中心化,很多技術往往是保險措施還沒有做好就已經被送到了所有人的手中。一個沒有限制的技術被放到一個匿名的網路環境中,我們永遠不知道其中隱藏著多少危險。這種事情,會涉及到我們這種無名小卒嗎多年前,QQ剛剛火起來時,我們的網路安全技術還遠沒有今天完善,那時登陸QQ,時不時地就會被提醒個異地登陸或者密碼已被修改。隨著經驗的增多,很多人都已經習以為常,逐漸知道了不在QQ中放重要的信息,或者買一個QQ密保來給賬號進一步加密。後來,我們都知道,在黑客那裡,我們的賬號都是「肉雞「,之所以沒被入侵,只是因為入侵的價值低,成本高。另外,想要學習黑客技術,還具有一定的難度,因此類似QQ盜號這種事情的危害範圍始終有限,普通人雖然隨時都可能被盜號,但是對其造成的影響也不大。所以,對於普通人來說,這種危險基本就被忽略了。

可是今天出現的deepfake危機卻與以往不同,它主要有三個原因。首先,它的技術門檻低。上文中,我們已經詳細地了解了deepfake模型的使用過程,作為一種開源的模型,它易獲取、易上手,基於人工智慧演算法的它可以將所有複雜的運算自動運行,基本沒有使用的難度。其次,它的訓練資料獲取簡單。同樣地,在上文中我們也提到,deepfake框架所需的訓練數據量很小,小到只需要幾十分鐘的視頻就夠了。如今每個人幾乎都會在網上上傳自己的影像資料,比如朋友圈視頻、抖音短視頻等等,心懷不軌者完全可以根據這些資料來製作時長不等的假視頻。最後,它的危害性極大。人類的技術發展速度遠超過人的生理進化速度。即使在互聯網已經普及了十多年的今天,認臉也仍然是人們在日常生活中最常規,也是最可靠的一種辨認互相身份的方式。因此,如果人臉的信息可以被濫用,能夠造成的傷害將是個人無法承受的。比如一個內心扭曲的追求者將自己求而不得的女神的臉移植到隨機一段不雅視頻上、比如網路詐騙的騙子用你的面部信息給父母發視頻,再配上語音合成技術合成出的你的語音,你覺得父母不被騙的可能有多大,又比如用模擬的面部信息進行手機解鎖、支付認證,甚至是製造假證據進行栽贓陷害。無論是哪一種,對於一個普通人來說,都將是生命不能承受之重。可以說,我們現在面對的一個事實是,每個人都成為了隨時可能被宰的「肉雞「,同時每個人也都成為了手握屠刀的」屠夫「。對於個人來說,或許現在最應該做的事情就是盡量減少自己的面部信息流傳到網路上,同時,增加辨識個人身份的方式,防患於未然。

畢竟,就如斯嘉麗約翰遜所說:

「我認為是否捍衛自己的肖像權、要求賠償取決於個人。我的意思是,對我來說這種努力是無用、沒有結果的,但是對於那些因此可能丟掉工作的人來說就不同了。互聯網是販賣色情的一大場所,脆弱的人會被攻擊。低級黑客就可以偷竊密碼和身份。每個人都有可能成為目標,這只不過是時間問題。人們認為密碼可以保護他們,只有公眾人物才有被黑的風險。殊不知,對黑客來說,攻擊誰並沒有太大差別,這隻取決於 ta 想不想攻擊你。「

相信,處於聚光燈下的斯嘉麗同時也更能夠體會到互聯網信息隱患對個人的傷害,而她的觀點,對於生活在信息時代的我們每個人,或許也都有借鑒的價值。


推薦閱讀:
相关文章