【雪花新聞2019年06月12日訊】(雪花新聞記者袁世鋼颱北報導)先進駕駛輔助係統(ADAS)是人工智慧(AI)重要的應用領域,交通大學電子研究所團隊領先全球,開發齣全世界第一套快速視訊資料自動化標記工具(ezLabel 2.0),延伸應用於“物件行為預測”,研發全球首見“智慧之眼”,能準確預測後方車輛3秒內是否超車。

科技部次長許有進(中)、工程技術研究發展司長徐碩鴻(左)、郭峻因教授(右),及交大電子所研究團隊學生
科技部次長許有進(中)、工程技術研究發展司長徐碩鴻(左)、郭峻因教授(右),及交大電子所研究團隊學生(袁世鋼/雪花新聞)

先進駕駛輔助係統(ADAS)是人工智慧(AI)重要的應用領域,交通大學電子研究所團隊領先全球,開發齣全世界第一套快速視訊資料自動化標記工具(ezLabel 2.0),延伸應用於“物件行為預測”,研發全球首見“智慧之眼”,能準確預測後方車輛3秒內是否超車。

交大電子研究所教授郭峻因錶示,嵌入式AI技術包括資料庫、算法、運算平颱3項技術。藉由分析影像實現ADAS,成功開發嵌入式電腦視覺深度學習技術,透過快速自動化標記工具,産生大量AI學習的資料庫,搭配團隊開發的即時軟體算法,降低AI電腦視覺所需的運算平颱成本。

他說明,以往處理復雜的AI深度學習模型,必須依靠電腦圖形處理器(GPU),費用昂貴且無法雖身攜帶,而嵌入式AI物件辨識係統,成本較低可以産業化,並應用到各種産品上,這是研發的目的,隻要有照相攝影的地方,都可以導入。

他舉例,掃地機器人也有裝鏡頭來辨識前方物體,隻有“擁抱嵌入式AI,纔會發大財。”

目前市售車輛普遍配有ADAS係統,但郭俊因認為,團隊結閤AI後所研發的自動化標記工具(ezLabel),效率較現有手動標記工具高10倍以上、最遠可偵測200公尺內的物件,而且能進一步分析被標記物件的行為,判斷後方車輛3秒內是否有超車的可能、前方是否有行人正在過馬路等,也比以往的標記工具,更能適應惡劣天氣及夜間光綫不足的環境,提升行車安全。

研發團隊已經建置超過1,500萬筆,適閤颱灣地區的自駕車影像資料庫,有助於開發適閤颱灣地區的AI自駕車物件辨識技術,預計今年將增加資料庫數量達到3韆萬筆,而颱灣擁有國外相當缺乏的機車資料庫,他認為,颱灣要發展自駕車産業,掌握圖資是關鍵。

自駕車技術仍充滿挑戰,全球已發生多起死亡車禍,郭峻因認為,可能是係統設計無法偵測齣當下交通狀況,不管是攝影機、雷達或是Lidar(光達)都有可能發生,也可能是感測器(Sensor)有發現,但緻動器(Actuator)最後沒有做齣反應。

他強調,使用多元的感測器纔能截長補短,畢竟沒有任何一個感測器能夠做到100%的準確度。

交大電子研究所教授郭峻因
交大電子研究所教授郭峻因(袁世鋼/雪花新聞)
後方車輛超車預測係統展示
後方車輛超車預測係統展示(袁世鋼/雪花新聞)
可行進車道判斷係統展示
可行進車道判斷係統展示(袁世鋼/雪花新聞)

責任編輯:呂美琪

相關文章