「背景信息:五月三十一日晚間,上海中環發生一起因醉酒駕車引起的重大交通事故,筆者看完這個新聞非常震驚,一是酒駕查處如此嚴格情況下還有人頂風作案,二是被撞車輛直接被擠壓、衝出高架護欄,還好駕駛員受傷不太嚴重,算是不幸中的萬幸。
作為自動駕駛行業或者ADAS行業感知領域從業者,筆者覺得這種突發意外無法避免,因此出於職業習慣分析了該事故,希望能為大家感知架構設計和功能設計提供些材料。
1.場景描述:
位置:上海中環快速路,雙向八車道
是否處於上下匝道:無
是否有路燈:有,照明情況良好
車流量:少
道路情況:是否有施工-無; 路面附著-良好,無積水,標準快速路; 路面是否有其他障礙物-無; 車道線是否清晰-清晰; 路沿是否清晰-清晰; 道路曲率與半徑(大致)- 目測曲率很小; 道路坡度-無; 道路傾斜程度- 無,影響很小),
天氣情況:略微影響視線
2.情景復現:(視頻上看碰撞過程在14-15s之間,實際肯定小於1s)
3.初步定量分析:
車道線寬度:3500mm
車輛尺寸:1800mm*4300mm
肇事車車速:估測80kph左右
受損車車速:估測70kph左右
車輛軌跡分析:
時間分析:
肇事車輛Vy>0開始到發生碰撞,留給第一車道車輛的反應距離有6.7m左右,以70kph時間計算,留給第一車道車輛反應時間也只有0.34s,意味著在這0.34s內,車輛必須感知到有運動軌跡發生重合的危險並且合理計算出減速請求。(假設該L3功能只限制在本車道)
期間,感知融合需要完成以下工作:
1)融合模塊需要在目標進入感測器FOV後就建立穩定的tracker,維護住目標狀態、屬性;
2)感測器需要測量到目標橫向速度的相對變化,並發送給融合模塊;
3)融合模塊需要接收感測器發來目標的尺寸,速度,位置等信息,並與內部tracker進行成功匹配關聯;
3)融合模塊需要對多感測器數據進行比較、評估,運行kalman濾波,需要至少N*m個(N=感測器種類)SensorUpdate步驟將感測器發出的最新的位置速度信號更新至內部tracker;
4)如果1/2/3都沒有任何問題,融合模塊還需要綜合評估目標置信度;
以AudiA8的感測器配置為例,很遺憾,只有CornerRadar+環視攝像頭在2)上可以提供足夠的信息。肇事車輛位於前主攝+前雷達FOV之外。
最重要的!對感測器和融合的要求:
1)在如此短的時間內,我個人認為目前角雷達很難提供準確的橫向速度,目前在雷達內部還是通過多個detector的徑向速度解算目標橫縱向速度,在這個場景下具體徑向速度變化了多少目前還給不出答案,以radar 50ms的發送週期,在0.37s以內,7個cycle, radar 發出的目標橫向速度我認為很難達到從0到3.3m/s。
2)環視攝像頭,我對環視攝像頭性能不是很瞭解,希望有人補充說明。
3)融合,如何融合來自radar的點狀目標和環視的3d或者2d目標??目前演算法改動空間還是很大。
結論是,對於這種場景,可能真的需要激光雷達來覆蓋車輛AB柱之間的目標探測。
從功能層面:
曾有幸參與到TJP某些功能的開發和討論,當時不理解條件要如此苛刻,但是看到這個例子我瞬間明白了。瑞典人的經驗不是白來的,雖然對他們有種種不滿,但是從結果看他們的思想還是非常值得學習和欽佩。
到2022年,當OEM們都想上Hands off甚至eyes off的高速功能,那對於這種情況是否考慮到了?
Stay Hungry. Stay Foolish
AC
2019/06/01
推薦閱讀: