&>&> 本問題已加入 人工智慧 · 自動駕駛 圓桌中,歡迎關注圓桌參與更多討論 &


道路上的障礙主要分為兩類,一類主要指行人、車輛、交通標識等,另一類障礙物還包括石頭、塑料袋等非常規物體的識別。

目前,MINIEYE的ADAS系統進行的是前者。MINIEYE的視覺演算法將人與車進一步細分成了以下幾個類別:

人:普通行人、打傘的人、騎車的人(騎自行車的人、騎電動車人、騎摩託人)

車輛:普通汽車、特種汽車(運鈔車、三輪車、大型卡車等)

交通標識:車道線、紅綠燈、限速牌

目前,MINIEYE提供的解決方案有兩種:基於攝像頭的方案和基於攝像頭與毫米波雷達融合的方案。兩種方案中,工程師會依據各個感測器的特點進行演算法設計。利用感測器採集的信息,對其進行時間軸對齊、匹配、信度融合等操作,從而完成對周圍環境的感知。基於感知信息,實現一系列的功能:前車碰預警、車道偏離預警、車距監控、前車啟停提醒等。

下面,我們再來了解一下,當攝像頭拍攝到一個障礙物的時候,整個視覺建模是怎樣進行的。

第一步:根據攝像頭所採集的圖像,檢測演算法能夠定位出前方目標物體(車輛,行人等)的具體位置並提供其大致的輪廓,這個階段的誤差範圍還較大。

第二步:基於物體的位置和輪廓,分類演算法對目標進行精確的識別,同時回歸演算法對其進行特徵點定位,進而得到目標緊緻的輪廓信息。

第三步:利用連續幀圖像的內容、排除交叉關係和周邊環境的干擾,得到關鍵車輛的視覺信息。

第四步:監測前方關鍵車輛的距離、速度、碰撞時間等,必要時提示駕駛員並給出預警。

完成了建模,並不代表整個視覺識別的過程是一帆風順的,逆光、強光、雨天、霧天、隧道、夜晚等特殊情況都會對視覺識別帶來困難。

針對這些特殊情況,視覺演算法的識別的難點主要有三個:

1.圖像成像質量、表觀不一(逆光環境、隧道行駛)

2.解析度不夠高(距離較遠狀況下)

3.演算法的計算能力有限。

一個良好的視覺演算法系統必須平衡好距離、清晰度、成本三個方面平衡。

為了解決上述問題,MINIEYE對整個視覺演算法系統都需要進行相應的調整。

攝像頭:利用cmos的選型(尤其關注HDR和低照指標)和ISP參數優化,保證低光照等條件下的圖像清晰度

演算法:根據參數,利用視覺原理,對車輛與人進行跟蹤,在某一幀圖像質量較差時,進行預測,形成動態的決策機制。

圖像質量增強:針對雨天、隧道等特殊環境,進行額外的圖像質量增強,處理雨珠、增強銳度等。

在相似物體的甄別上,比如大型卡車與小型卡車的高度不同,無論是傳統演算法,還是深度學習演算法,都能感知到兩種車型完全不同的高度,MINIEYE還設立了專門的數據組來收集樣本,實驗各種新的演算法,並根據特定場景,開發適應於產品的演算法。

相比於人眼,視覺演算法具有明顯的優勢。一方面,在低照度情況下,攝像頭的識別能力遠勝過人眼,在夜晚,人眼的識別只能達到0.2勒克斯(照度的單位,被光均勻照射的物體,在1平方米面積上所得的光通量是1流明時,照度即為1勒克斯),沒有月光、路燈輔助的情況下,基本不可能看到車道線,攝像頭的動態感知能力卻完全可以克服低照度條件下的識別。

另一方面,人眼是基於動態對物體進行識別的,這並不是一個實時系統,具有明顯的滯後性,而機器的算力強、運算速度快,能夠迅速識別靜態物體,比人眼更加敏感。此外,在測距方面,未經專業訓練的人眼只能測出一個模糊的距離,而攝像頭能夠做到高精度的距離識別,測距誤差低於5%,這一特性能夠幫助駕駛員更好地做出正確的判斷。

最後,總結一下,對障礙物的精確識別,是一個複雜的過程,它包括了先驗知識融入、圖像跟蹤、圖像質量增強、攝像頭選型調參、環境感知融合決策,多樣本優演算法等一些系列流程,視覺演算法的精度也因此成為了ADAS產品的核心競爭力之一。


MINIEYE的其他回答:

自動駕駛汽車為什麼不能在雨中行駛?

未來十年哪些基礎科學突破會影響自動駕駛行業?

深度學習領域有哪些瓶頸?

深度學習在無人駕駛汽車上面的運用有哪些?

汽車的自動駕駛技術為什麼要採用那麼多感測器?

為什麼最近幾年 FPGA 變得越發受大家重視了?

進一步了解MINIEYE:

MINIEYE是一家什麼樣的公司?

在MINIEYE工作是怎樣一種體驗?

MINIEYE 官方網站:

MINIEYE - 為自動駕駛提供精準的視覺感知?

www.minieye.cc

加入MINIEYE:

MINIEYE招聘職位-拉勾網-專業的互聯網招聘平台?

www.lagou.com圖標

人類的交通環境非常複雜,機器必須學會「看懂」障礙物,才能做出有效的規避指令,保障駕駛過程安全順利,演算法想要良好的運轉,當然離不開底層硬體的支持。

SLAM(同時定位與地圖構建)作為基礎技術之一,在自動駕駛、機器人、無人機等方面均有廣泛應用,SLAM 中常用的有單目相機、雙目相機、RGB-D 深度相機、激光雷達等等。

想要實現 SLAM 的「定位」和「地圖構建」,需要機器對環境有三維感知,因此深度信息非常重要。而上文提到的眾多類型的相機感測器就成為了機器的「眼睛」。

激光雷達通過發射和接受反射回來的激光束,獲得距離、速度等信息;

單目攝像頭需要對比機器在移動過程中拍攝到的圖像變化,來判斷與物體之間的距離;

雙目攝像頭更像人眼,可以通過兩隻眼睛看到圖像的不同,直接獲取深度信息;

RGB-D 由於配備了紅外發射器和接收器,利用結構光方法就能直接獲得周圍環境的深度信息,我們也將它稱為深度相機。

有了這些不同種類的「眼睛」,機器可以感知到周圍的信息了,但如何「更精準的」實現對障礙物的識別呢?

答案是更多的感測器和更好的演算法。

但一輛車需要考慮車輛整體設計的需要,使用場景、成本、車輛整體性等問題都要考慮,這時人們就需要多感測器融合技術(Sensor fusion)來解決問題。

感測器數據融合的定義可以概括為把分布在不同位置的多個同類或不同類感測器所提供的局部數據資源加以綜合,採用計算機技術對其進行分析,消除多感測器信息之間可能存在的冗餘和矛盾,加以互補,降低其不確實性,獲得被測對象的一致性解釋與描述,從而提高系統決策、規劃、反應的快速性和正確性,使系統獲得更充分的信息。

通過多感測器數據融合技術,將車輛中來自激光雷達、相機等不同感測器的數據進行融合,提高整體的識別效率和準確率。

例如特斯拉的 Autopilot 系統,搭配了 8 個攝像頭,12 個超聲波感測器以及前置雷達來提升車輛的感知能力,將這些感測器提供的實時數據很好的整合併進行計算,才能達到「自動輔助駕駛」的能力。

via Tesla 官網

不過目前的自動駕駛系統還未達到「無人駕駛」的地步,即便是特斯拉也只能稱自己為「自動輔助駕駛」,還是需要駕駛員坐在駕駛位,以便遇到突發情況時隨時接管車輛。

BTW:關於 SLAM 的更多知識,歡迎來小知的專欄《知智一分鐘》多了解一下~

KnowingAI知智:無處不在!超火的 SLAM 技術藏在哪兒?| 知智一分鐘?

zhuanlan.zhihu.com圖標KnowingAI知智:想入門自動駕駛?超火的 SLAM 技術了解一下!|知智一分鐘?

zhuanlan.zhihu.com圖標
計算機視覺在過去十年內取得了巨大進步,但是任何汽車廠商如果單純採用攝像頭來做智能駕駛並宣稱系統安全,都是不負責任的。

1.首先分析是何種障礙物,障礙物的特點,以及使用何種感測器獲取信號。

2.一般有兩種方案進行操作。第一種是使用圖像處理+特徵抽取+模式識別的研究方案,另一種就是使用機器學習的方案。

3.使用第一種方案,就是對目標進行分析,根據目標的特徵尋找或者設計圖像處理方法將目標物分割出來,然後使用某種特徵提取方法,對ROI進行特徵抽取,將特徵送去模式識別演算法中進行分類進而達到識別的目標。

4.使用第二種方案,對樣本庫進行打標籤。然後送去分割網路或者是學習演算法,深度網路等進行分割、識別。目前常用的圖像分類網路就是CNN,根據訓練的結果達到識別的目標。


精準兩個字用在機器學習上是不恰當的,自動駕駛的實現目標最多是超過人類識別率多少個點而已,沒辦法做到百分百絕對安全,這是機器學習的數學本質決定的。


推薦閱讀:
相关文章