匯流新聞網記者林欣穎/台北報導

人臉辨識也會種族歧視?美國國家標準暨技術研究院(NIST)研究近兩百種臉部演算法後,發現人臉辨識系統在辨別非白人時會產生較大的誤差,因應人臉辨識被普及用在執法與身分辨識驗證,這項發現很有可能會引發應用上的疑慮。

根據《華盛頓郵報》報導指出,目前的臉部辨識系統,對亞裔、非裔美國人的誤判機率比白人高出100倍左右,這些錯誤很有可能會讓運用人臉辨識系統進行驗證的銀行、邊境管制、機場系統等遭有心人士利用或導致誤判,特別是在執法時面臨一些「種族偏見」問題上更加敏感。

目前演算法有兩種誤判狀況:分別為假陽性與假陰性,可能會錯把兩人辨識為同一人,除了膚色,性別、年齡也有可能會是造成人臉辨識系統誤判的因素之一,其中又以非裔美國女性誤判機率最高。NIST驗證了目前的演算法中存在種族與性別偏見,也讓民眾對辨識系統的可信度產生動搖。

NIST表示,他們交叉演算法採樣來自各家知名科技公司,不過,其中值得注意的是,亞馬遜並未將演算法提供給NIST。除了找出為何演算法會產生種族歧視的原因,期會帶來的影響也不容忽視,美國近期在邊境管制上大量運用人臉辨識系統作為驗證系統,NIST認證辨識系統存在瑕疵後,美國會議員也呼籲川普應該審慎評估這項運用。

新聞照來源:資料照片

《更多匯流新聞網報導》

北韓駭客組織攻擊又一起!釣魚郵件攻擊維權人士 美聯邦法院授權微軟接管網域

Facebook首在台設戰情室!廣邀專家跨部會合作 力求維護大選公正性

【匯流筆陣】
CNEWS歡迎各界投書,來稿請寄至[email protected],並請附上真實姓名、聯絡方式與職業身份簡介。
CNEWS匯流新聞網:https://cnews.com.tw

【文章轉載請註明出處 】

相关文章