1 攝像頭

攝像頭模擬就是生成圖像,逼真的圖像,通過計算機圖形學對三維景物(CAD)模型添加顏色與光學屬性。現在流行的Unreal Engine或者Unity 3D

,就是基於物理的渲染引擎,實現一些CAD模型的繪製演算法,比如光線跟蹤(ray tracing)或者光線投射(ray casting),來實現圖像合成(如圖展示光線和圖像的關係)。一些開源的自動駕駛模擬系統比如Intel Carla(Car Learning to Act)和Microsoft AirSim都採用了這些渲染引擎。

有一些開源的虛擬圖像庫,已經在計算機視覺

的研究中得到應用,比如Virtual KITTI,FCAV (UM Ford Center for Autonomous Vehicles)和Synthia等,下面圖有一些各自的圖像例子。

理論上,在計算機圖形學有各種光照模型和繪製模型,當年Nvidia在GPU硬體對圖形學演算法加速做出了重大貢獻,包括著名的voxel shader和pixel shader(fragment shader)。大家說計算機視覺是計算機圖形學的逆過程,只是它和計算機圖形學也可以結合,結果有兩個重要輸出,一個是增強現實(AR),另一個是基於圖像的繪製(IBR)。

AR的思想在模擬系統也可以體現,比如在真實的街景中可以插入合成的車輛或者行人。IBR在虛擬環境生成的過程中可以通過一些拍攝的圖像生成一些背景以簡化實際渲染的計算量。更甚至,通過機器學習,比如GAN,在大量真實圖像數據的訓練情況下,和圖形學的CAD模型結合,也可以合成新場景圖像。

除了3-D幾何和物理模型之外,還需要對相機鏡頭的結構與光學特性,內部數據採集過程進行模擬,例如焦距,畸變,亮度調節,伽瑪調節,景深(depth of field),白平衡,高動態範圍(HDR)色調調整等。

2 激光雷達

介紹一篇模擬激光雷達的論文。首先,採用非常流行的遊戲GTA-V(Grand Theft Auto V)獲取模擬的點雲和高保真圖像。

為了模擬真實的駕駛場景,在遊戲中使用自主車(ego vehicle),安裝有虛擬激光雷達,並通過AI介面在虛擬世界中進行自動駕駛。系統同時收集激光雷達點雲並捕捉遊戲圖像。在虛擬環境中,虛擬攝像頭和虛擬激光雷達放在同一個位置。這樣做有兩個優點:

  1. 可以輕鬆地對收集的數據進行健全性檢查(sanity check),因為點雲和相應的圖像必須保持一致;
  2. 遊戲的虛擬攝像頭和虛擬激光雷達之間的標定可以自動完成,然後收集的點雲和場景圖像可以組合在一起作為感測器融合任務的神經網路訓練數據集。

光線投射(ray tracing)用於模擬虛擬激光雷達發射的每個激光射線。光線投射將光線起點和終點的3D坐標作為輸入,並返回該光線命中的第一個點3D坐標,該點將用於計算點的距離。激光雷達參數包括垂直視場(VFOV),垂直解析度,水平視場(HFOV),水平解析度,俯仰角,激光射線的最大範圍和掃描頻率。

如下圖顯示了一些可配置的參數:(a)虛擬激光雷達前向圖的正視圖:黑色虛線是水平線,α是垂直視場(FOV),θ是垂直解析度,σ是俯仰角; (b)表示虛擬激光雷達的俯視圖,β是水平FOV,φ是水平解析度。

該系統實現3-D激光雷達點雲和攝像頭圖像的自動校準,而且用戶可以選擇所需的遊戲場景,並指定和改變遊戲場景的8個維度:汽車模型,位置,方向,數量,背景,顏色,天氣和時間。前5個維度同時影響激光雷達點雲和遊戲圖像,而後3個維度僅影響遊戲圖像。

3 毫米波雷達

介紹一篇基於機器學習模擬雷達的論文工作。由於多徑反射,干涉,反射表面,離散單元和衰減等影響,雷達建模不簡單。詳細基於物理原理的雷達模擬是有的,但對實際場景而言計算量難以承受。

一種構建概率隨機汽車雷達模型的方法基於深度學習和GAN,產生的模型體現了基本的雷達效應,同時保持實時計算的速度。採用深度神經網路作為雷達模型,從數據中學習端到端的條件概率分佈。網路的輸入是空間柵格和對象列表,輸出是讀取的感測器數據。

如上圖是在深度學習框架下模擬雷達數據的表示。空間柵格是具有兩個主要尺寸,即距離和方位角的的3D張量,第3維度是由不同類型的信息層組成。這個類似於RGB圖像,其像素信息存儲在空間維度和顏色通道中。那麼,這種空間柵格同樣適合CNN模型。

提供兩個直接參數化概率分佈的基準雷達模型:正態分佈和高斯混合模型。多變數正態分佈通常用於機器學習,因為它具有良好的數學性能。不過,正態分佈是單峯的。而且正態分佈的參數與目標變數的維數呈二次方增長。這裡CNN模型的輸出是具有兩層的張量網格:一個平均值,一個對角對數方差。

隨機雷達模型的一個重要挑戰是,感測器輸出是多模態和空間相關的。回歸方法將平滑可能的解決方案,導致模糊的預測。而變分自動編碼器(VAE)允許學習一對多概率分佈而無需明確輸出哪個分佈。

該模型的架構是一個編碼器-解碼器網路。

編碼器獲取光柵和對象列表併產生潛在的特徵表示x,解碼器採用特徵表示和隨機生成的雜訊值併產生預測的感測器測量值。編碼器由兩分支組成,即一個空間光柵和一個對象列表,這些分支合併在一起產生潛在的特徵表示。兩個分支完全由卷積層組成。輸出被扁平化級聯在一起,然後使用有ReLU的全連接層處理。

解碼器使用編碼特徵和隨機雜訊生成功率值的雷達極坐標網格。 在VAE重新參數化時候,隨機雜訊加入輸入信號。使用ReLU激活的全連接層連接和處理雜訊和潛在特徵,然後重新整形和一系列反捲積層處理,產生輸出雷達信號。

4 其他感測器

其他感測器,如GPS,IMU,超聲波雷達和V2X感測器,也可以模擬模擬其數據。

GPS模擬GPS位置以及GPS雜訊模型參數,輸出車的經緯度,速度,航向等。

IMU模擬車的加速度和角速度,特別是GPS信號丟失時車的位置,速度、和航向的累積誤差。

超聲波雷達(主要是自動泊車)模擬超聲波雷達位置,角度和障礙物的距離。

V2X模擬動態交通流設備數據,甚至要反映通信延時或丟包的情況。

【參考文獻】

  1. Unreal Engine:unrealengine.com/en-US/
  2. Unity 3D:unity.com/
  3. Carla Simulator:carla.org/
  4. AirSim Simulator:github.com/Microsoft/Ai
  5. DeepGTAV:github.com/aitorzip/Dee
  6. G Ros et al,「The SYNTHIA Dataset: A Large Collection of Synthetic Images for Semantic Segmentation of Urban Scenes」,CVPR 2016
  7. T Allde?n, M Chemander, S Davar,J Jansson, R Laurenius, P Tibom,「Virtual Generation of Lidar Data for Autonomous Vehicles 」,BS Thesis,University of Gothenburg,Chalmers University of Technology,Gothenburg, Sweden 2017
  8. A Foessel-Bunting,「Radar Sensor Model for Three-Dimensional Map Building」, SPIE, Mobile Robots XV and Tele-manipulator and Telepresence Technologies VII, 2000
  9. T Wheeler et al,「Deep Stochastic Radar Models」,IEEE IV,2017
  10. X Yue et al,「A LiDAR Point Cloud Generator: from a Virtual World to Autonomous Driving 」,arXiv 1804.00103,2018
  11. W Li et al.,「AADS: Augmented autonomous driving simulation using data-driven algorithms「, Science Robotics, 2019.
  12. H Alhaija et al., 「Augmented Reality Meets Computer Vision : Efficient Data Generation for Urban Driving Scenes「,arXiv 1708.01566, 2017
  13. VSR Veeravasarapu,C Rothkopf,R Visvanathan,「Adversarially Tuned Scene Generation」,arXiv 1701.00405, 2017
  14. A Gaidon et al.,「Virtual Worlds as Proxy for Multi-Object Tracking Analysis」,IEEE CVPR 2016.
  15. M. S Ramanagopal et al., 「Failing to Learn: Autonomously Identifying Perception Failures for Self-driving Cars」, IEEE Robotics and Automation Letters,2018.

推薦閱讀:

相關文章