【雪花新聞2020年05月11日訊】(雪花新聞記者袁世鋼颱灣颱北報導)人工智慧(AI)可蒐集並分析大量的資料,協助人類快速得到想要的答案,但科技部長陳良基錶示,由於缺乏推理過程,始終無法獲得科學傢們真正的信任;資誠聯閤會計師事務所也指齣,AI當前的關卡就是缺乏解釋性。不過,颱大AI中心已成功讓AI對如何辨識人臉作齣解釋。

陳良基錶示,人類總是藉由不斷的提問“為什麼”以釐清問題、找齣答案;而深度學習等類神經網絡的AI,可依照自己的規則快速消化大量資料並産齣高精準度的答案,但人們發現,AI並無法詳細說明推理過程,使人們不敢放心運用AI解決問題,甚至開始質疑。歐盟今年2月發錶的“AI白皮書”也提及,缺乏信任是阻礙AI廣泛應用的主要原因。

不過,颱大AI中心、資訊工程學係教授徐宏民的團隊已開發齣能嵌閤在人臉辨識模型的“可解釋性AI(Explainable AI ,XAI)模組xCos”,除瞭具備高辨識率的人臉辨識能力外,還可有條理的解釋産齣結果的原因。陳良基說,這項技術不僅可協助國內外相關業者開發AI辨識技術、明白AI決策建議背後的理由,更能提升人類對於使用AI的信任度。

徐宏民錶示,他的團隊在過去3年中開發人臉辨識産品時,在深度模型設計的過程中會遇到AI人臉辨識結果跟他們的直覺無法吻閤的情況,他們對於AI的判斷依據相當睏惑;為此,團隊花瞭1年多的時間開發齣“xCos”,可成功解釋辨識的原因,並自動排除人臉不自然的錶麵,專注在真實、可辨識的位置,進而達到辨識僞裝人臉的效果。

科技部長陳良基舉例,如果要判斷一個人帥不帥,會用身高、眼睛、鼻子、身材等指標來做判斷,但AI判定的參數可能達上億個,AI要如何從上億個參數當中決定哪個比較重要?這就是科學傢們過去一直想要瞭解的“AI決策黑盒子”,進而判定AI的決策是否能夠信賴。

此外,徐宏民說, xCos模組除瞭可供末端使用者瞭解人臉辨識結果的成因外,更可協助開發人員檢視係統的運作機製,將技術擴展到其他領域的AI決策係統。例如AI僅告知發電廠未來1小時是否要增加發電量,但XAI就可說明是因為預測氣候的改變或有特殊節慶等原因;AI可以判斷X光片是否有肺炎徵兆,但XAI可解釋判斷的依據、指齣病徵的位置。◇

責任編輯:鄭樺

相關文章