面對泄露、竊取等問題  人臉識別技術該如何規避風險?【中國社會科學網】 新聞 第1張

人臉識別是生物特徵識別的重要內容,在20世紀90年代後期進入初級的應用階段,並且以美國、德國和日本的技術實現為主。近年來,我國相關技術發展突飛猛進。人臉識別在給我們生活提供便捷的同時,也存在被攻擊或惡意利用的嚴重安全隱患。因此,針對人臉識別技術應用和人臉數據庫、人臉識別模型建設一定要嚴格控制,人臉數據應像基因數據一樣,通過技術和立法等手段予以嚴格保護。

人臉識別技術應用現狀

生物識別技術主要利用人體固有生理特徵(如指紋、聲紋、人臉、虹膜等)和行為特徵(如筆跡、聲音、步態等)進行個人身份鑒定。與其他生物識別技術相比,人臉識別具有準確率高、非接觸、速度快等特點,在越來越多國家的政府、軍隊、金融、電子商務、安全防務及娛樂等領域推廣應用,潛力巨大。

美國聯邦調查局(FBI)的“新一代身份識別數據庫”(NGI)在其超過1億份個人指紋信息記錄基礎上加入了掌紋、虹膜、人臉等多項生物特徵數據,採集了美國成年人口的一半以上。澳大利亞移民及邊境保護局開始採用“免人手處理”的新入境系統,設立電子掃描站,利用生物識別技術辨認入境遊客的面孔、眼睛虹膜及指紋,取代傳統出示護照的入境程序。近年來,我國人臉識別技術也發展迅速,作為智慧社會的核心技術,人臉識別蓬勃發展和廣泛應用的同時,潛伏着的各類安全隱患不容小覷。比如,2017年“3·15”晚會上,主持人在現場技術人員的支持下,僅憑一張觀眾的自拍照,就成功“換臉”破解了“刷臉登錄”認證系統。

人臉識別技術的攻擊手段及風險

當前,對於人臉數據的違規採集、泄露、竊取以及非法交易和利用等問題是人臉識別技術和數據庫面臨的主要風險。如果這些安全風險不能通過技術、政策和法律法規來解決的話,必將對人臉識別技術發展產生“雙刃劍”效應,凸顯制約瓶頸。

人臉識別的仿冒認證。人臉識別系統可以對攝像頭採集的人臉圖像進行辨認,卻無法識別採集的人臉圖像是來自真人還是一張照片。人臉識別系統極易受到各類蓄意的仿冒攻擊,常見手段包括盜用合法用戶人臉照片、盜用合法用戶人臉視頻及盜用三維人臉面具等。為應對人臉照片冒用,很多人臉識別系統加入了生物活性檢測(眨眼、張嘴、搖頭等)手段,但攻擊者仍可以利用視頻播放和自動化人臉動效等技術比較容易地逃過檢測。攻擊者藉助人臉關鍵點定位和自動化人臉動效技術,通過將自拍照由靜態改為動態,可以完成刷臉登錄需要的眨眼、張嘴等動作。

人臉識別算法的攻擊。合法用戶身份仿冒需要以獲得合法用戶的人臉照片及視頻等數據作為前提條件。國內某安全團隊已經實現了更具威脅的攻擊手段,使用完全不同用戶的人臉照片繞過身份識別系統。該攻擊手段對深度學習圖像識別等應用造成逃逸攻擊以及數據污染攻擊等效果,不依賴於具體的深度學習模型,對Tensorflow、Caffe等當前主流深度學習框架攻擊有效。

人臉數據的泄露途徑。人臉數據的泄露途徑主要有三種:1.互聯網公司的不當採集。當前各類網絡應用,包括社交平臺、電子商務、拍攝軟件等廣泛採集用戶人臉數據,智能攝像頭也隨時隨地地抓拍各類人羣的圖像數據。互聯網公司對我國網民人臉數據的採集,尤其是境外公司的違規採集行為將對我國用戶及國家安全帶來極大威脅。2.用戶上傳與分享。為了滿足實名制要求,大多數互聯網企業要求用戶上傳身份證信息資料和照片。在線支付和投資理財網站甚至要求用戶提交手持身份證的照片。另外,不少網民喜歡在朋友圈曬各類生活信息,包括本人、好友以及家人的照片,成為人臉數據泄露的重要來源。3.人臉數據庫被攻擊和竊取。公司採集的人臉數據都會存儲成為企業的數據庫。從目前全世界的情況來看,存在重大的數據泄露、失竊的潛在安全風險,數據泄露案件頻發。如2017年國內某求職網站被曝光泄露求職簡歷數據,包含了用戶的姓名、頭像及畢業學校等信息。2018年,在歐美國家持續發酵的美國某社交平臺多達5000萬用戶包括個人照片、視頻等隱私信息被泄露。

基於人臉識別的AI大規模殺傷性武器研製的威脅。將人臉識別和機器人控制等最新的人工智能技術結合起來,製造自主的大規模殺傷性武器在技術上是可行的。殺傷性武器裝載傳感器、攝像頭、GPS定位等高科技功能設備可進行人臉識別、躲避狙擊、攜帶炸藥等,做到一擊斃命。在自主致命武器的技術鏈條中,人臉識別技術是一個關鍵環節。自主致命武器一般是通過攝像頭、雷達等獲取戰場信息,通過對攝像頭中的人體、人臉進行識別,鎖定目標並攻擊。使用深度學習等人工智能技術來精準、自動識別攻擊目標是傳統武器不具備的能力,也是自主致命武器的核心技術。要想達到目標的精準識別,尤其是區分敵我,需要訓練高準確度的深度神經網絡模型,訓練過程需要大量實際的人臉數據做支撐。最新的研究成果表明,經過大量真實數據的積累和訓練,人工智能可以達到並超過人眼的識別準確度。因此,人臉數據是致命武器研製過程中的基礎與核心。目前,美國、韓國等個別國家已經在研發AI殺人機器人,這種人工智能技術,一旦被運用於未來戰場或被恐怖分子利用,後果都將異常嚴重。因此,加強人臉識別技術的監管、規範及利用勢在必行。

人臉識別技術應用的安全防範

為應對人臉識別技術應用的諸多風險,應該從保護人臉數據和人臉模型的角度,完善生物識別相關法律法規,建立人臉大數據中心和多因子識別管理體系,加強技術應用的監管和數據保護。

保護好我國人臉數據和人臉模型,完善生物識別相關法律法規。高質量的人臉數據和高精度的人臉模型是自主致命武器的核心。保護好一個種族的人臉數據和人臉模型,就像保護這個種族的基因庫一樣,是限制敵對方開發針對本種族的自主致命武器的關鍵任務。在人臉數據的採集、存儲、傳輸及使用等環節,應通過技術和立法等手段加強保護和監管,既要尊重人工智能科學發展,又要保護人臉數據資源合法合規流通和使用。一要建立生物特徵信息相關的管理機構和制度,保障人臉數據的安全、規範使用。構建一個透明的機制和統一的機構,既可以約束從業廠商、數據運營方,做好隱私保護,又可以取得公眾理解和支持,推動技術創新升級,以獲得共贏。建議將2016年成立的中國自動識別技術協會生物特徵識別工作組升格為生物特徵識別技術專業委員會,以更好為行業標準和安全提供技術引導和監管服務。二要加快制定與個人信息保護相關的法律法規,確立個人信息控制權、刪除權、遺忘權等信息權利,健全個人對信息權利的投訴和救濟機制。2017年,中央網絡安全和信息化領導小組辦公室、國家質量監督檢驗檢疫總局、全國信息安全標準化技術委員會聯合發布了國家標準《信息安全技術個人信息安全規範》(GB/T 35273-2017),為我國個人信息保護工作的開展提供了翔實的實務指南,已於2018年5月1日正式實施。但是,該標準是國家推薦性標準,並不具有法律強制效力,因此建議盡快予以立法,提高國家應對層級。三是落實生物特徵數據生命週期各環節的安全主體責任,釐清大數據下政府、企業及個人的數據權責問題,促進數據市場法治秩序。

安防領域規範人臉模型訓練和流轉,建立人臉大數據中心。如果人臉數據和模型的合法性得不到保證和強調,勢必出現人臉數據和模型的地下市場,造成數據和模型泄露的嚴重風險。解決人臉數據和模型的泄露風險的技術和法律方案是存在的。在技術上,建議公安系統在國家和省級層面建立人臉大數據中心,在物理隔絕的專網內存儲人臉數據。算法供應商的模型必須在公安專網的大數據中心內進行訓練,產生的模型也必須應用在公安系統的專網內部,實現數據、模型物理上不出專網。深度學習的模型如果需要跨省市流轉並持續訓練增強,只能在公安專網內部流轉。算法供應商可以租用公安大數據中心的數據和計算力進行算法模型的升級和更新。在法律和行業規範上,建議規定並區分數據和模型流轉的法律關系。程序是由程序員編寫而成,其信息的來源是程序員自身,是人創造的產物。但是模型是由數據訓練而來,其信息的來源是人臉大數據,是自然資源進一步加工的產物。區分算法供應商的程序版權和模型來源,對於使用的模型需要提供訓練數據源所有者的授權證書。規定數據和模型的流轉必須有詳細、有區別的法律手續背書,對數據進行訓練得到模型,並不能改變數據屬主對模型的擁有關系。

人臉識別在重要領域的應用要慎重,建立多因子識別管理體系。雖然生物識別的準確性等問題會隨着技術進步逐步獲得改善,但生物識別身份卻存在難以克服的安全風險,甚至可能危害國家安全。因此,大規模的廣泛應用,尤其是在重要領域的使用,必須慎之又慎,不能放任商業企業追逐利潤自行其是。對於生物識別產品來說,即使檢測準確度達到99.99%,一旦大規模應用,由於上億用戶規模的基數太大,被誤判影響的人羣數目也會非常之多,給人身財產利益帶來的損失也將十分巨大。無論從技術上還是法律上考慮,當前都還不宜過分依賴人臉作為生物識別中唯一的身份識別手段,建議可以採用多因子識別管理體系,與其他身份識別手段相結合,提高系統的安全性、穩定性和科學性。

(作者單位:中國社會科學院當代中國研究所;中國人民公安大學網絡空間安全與法治協同創新中心)

原標題:人臉識別技術應用的風險與防範

相關文章