為了比人類駕駛得更好,自動駕駛汽車必須首先擁有比人類更好的視覺。

讓自動駕駛汽車擁有可靠的視覺功能一直以來都是技術發展中難以攻破的難題。如今,開發人員可以通過將各種感測器進行組合創建一個監測系統。藉助該系統,自動駕駛汽車能夠比人類駕駛員更好地「看見」車輛周圍環境。

該系統的關鍵是多樣性(即不同類型的感測器)和冗餘,重疊的感測器可以驗證車輛所檢測到的物體是否準確。

三大最主要的自動駕駛汽車感測器是攝像頭(camera),雷達(radar)和激光雷達(lidar)。三者協同工作可為車輛提供周圍環境的完整視野,並幫助其檢測附近物體的速度、距離以及它們的三維形狀。

此外,感測器也作為慣性測量單元幫助追蹤車輛的加速度和位置。

想要了解這些感測器如何在自動駕駛汽車上工作,代替和改善人類的駕駛視野,就讓我們先詳細認識一下最常用的感測器 – 攝像頭

攝像頭從不說謊

從照片到視頻,攝像是將世界可視化的最準確方式,對於自動駕駛汽車來說也尤為重要。

自動駕駛汽車依靠放置在車輛前後左右每一側的攝像頭,將360度的環境視圖拼接起來。有些攝像頭有較廣的視角,高達120度,但所捕捉的視野較近。其他攝像頭專註於更窄的視角,以提供較遠的視野。

NVIDIA DRIVE合作夥伴Sekonix研發的自動駕駛攝像頭感測器。

有些汽車上甚至安裝了魚眼攝像頭。此類攝像頭藉助超廣鏡頭可為汽車提供全景視角,讓駕駛員在停車時可以獲得全景視圖從而更好地瞭解車輛後方環境。

儘管能夠提供準確視圖,但攝像頭也有其侷限性。它們雖然可以辨別周圍環境的細節,卻無法計算出物體與車輛的距離,繼而無法準確知道它們的位置。此外,基於攝像頭的感測器很難在低能見度的條件下(如霧天,雨天或夜間)檢測物體。

這時就需要另外一個感測器的輔助 --- 雷達

一輛自動駕駛汽車利用攝像頭數據感知周圍環境的物體。

雷達輔助

雷達感測器可以在低能見度時(如夜間駕駛)作為攝像頭視角的補充,並幫助自動駕駛汽車改善檢測功能。

雷達通過脈衝發射無線電波來工作,傳統上被應用於檢測船隻、飛機以及天氣狀況。一旦這些波擊中物體,它們就會返回感測器,並提供有關物體速度和位置的數據。

NVIDIA DRIVE合作夥伴Metawave提供高精度的雷達感測技術。

與車輛上的攝像頭一樣,雷達感測器通常被佈置在汽車周身以檢測位於各個角度的物體。它們能夠確定物體的速度和距離,但卻無法辨別不同類型的車輛。

儘管環繞雷達和攝像頭所提供的數據對於較低級的自動駕駛來說已經足夠了,但是它們仍然不能在沒有人類駕駛員的情況下處理所有的駕駛狀況。因此,我們需要激光雷達。

激光聚焦

攝像頭和雷達是常見的感測器:如今大多數新車已經將它們用於高級駕駛輔助和停車輔助。 在有人類駕駛員監測系統的情況下,它們還可以實現較低等級的自動駕駛。

NVIDIA DRIVE合作夥伴Velodyne研發的激光雷達感測器。

然而,如果想要實現完全的無人駕駛,激光雷達的作用不可或缺。

激光雷達是一種通過脈衝激光測量距離的感測器,能夠使自動駕駛汽車擁有周邊環境的3D視圖。它能提供周圍汽車及行人的形狀和深度,以及道路地理環境。與雷達一樣,激光雷達也能在低能見度的環境下運行。

通過以極快的速度發射隱形激光,激光雷達感測器能夠根據瞬間反彈的信號繪製出詳細的3D圖像。 這些信號生成的點雲圖像代表車輛的周圍環境,可以增強感測器數據的安全性和多樣性。

Velodyne激光雷達感測器利用激光脈衝檢測物體時的視圖。

車輛只需要激光雷達在幾個關鍵位置發揮作用。激光雷達感測器的安裝成本很高,相當於攝像頭和雷達的十倍,而且它的檢測範圍相對有限。

三大感測器讓汽車擁有超人視覺

攝像頭,雷達和激光雷達感測器為汽車提供環境相關的豐富數據。然而,如同人類大腦需要處理通過眼睛獲得的視覺數據一樣,自動駕駛汽車也必須有處理持續信息流的能力。

自動駕駛汽車通過感測器融合來進行數據處理。輸入到感測器中的數據被傳輸到一個高性能集中式的AI計算機當中,比如NVIDIA DRIVE AGX平臺。該平臺將相關部分的數據結合起來以幫助汽車制定駕駛決策。

所以說,感測器融合不是僅僅依賴於特定時刻的單一類型感測器數據,而是可以融合感測器組所傳輸的各種信息,比如形狀、速度及距離,從而確保可靠性。

感測器還提供冗餘功能。在變道之前接收到來自攝像頭和雷達感測器的數據能夠大大提高駕駛決策的安全性,這就如同當前盲點警告可以作為人類駕駛員的輔助一樣。

NVIDIA DRIVE AGX平臺在汽車行駛過程中進行該操作流程,所以它始終對車輛周圍環境有一個完整且實時更新的視野認知。這就意味著與人類駕駛員不同的是,自動駕駛車輛沒有盲點,而且始終對於不斷運動和改變的周邊環境保持警覺。

那麼,自動駕駛汽車到底是如何處理通過感測器所獲得的數據的呢?

用行業術語來說,問題的關鍵在於感知,即在行駛過程中,自動駕駛汽車處理和識別道路數據(從街道標識到行人,乃至周圍交通環境)的能力。藉助AI的強大功能,自動駕駛汽車能夠實時識別周圍環境並對其做出反應,從而保證車輛的安全行駛。

自動駕駛汽車利用一系列稱為深度神經網路(DNN)的演算法來實現感知功能。

DNN並不是要求汽車遵循一系列人工編寫的功能,比如「看到紅燈就停車」,而是使汽車能夠利用自身感測器獲得的數據學習如何實況行駛。

這些數學模型的運行方式受到人類大腦的啟發,都是通過經驗進行學習。如果DNN接收到不同情況下多種停車標識的圖像,它就可以根據經驗學會自己識別停車標識。

自動駕駛汽車安全行駛的兩個關鍵:多樣性和冗餘

但是,僅依靠一種演算法是無法獨立完成工作的。為了實現安全的自動駕駛,一整套DNN不可或缺。在整套DNN中,每個DNN需要完成特定的任務。

這些網路是多樣的,從閱讀道路標識,識別交叉路口到檢測行駛路徑,它們涵蓋了所有功能。同時這些網路也是冗餘的,因為它們的功能有所重疊,所以能夠最大限度地降低出現故障的可能性。

自動駕駛對於所需DNN的數量沒有固定標準。新功能層出不窮,DNN的列表也隨之不斷增長變化。

在實況駕駛中,必須實時處理獨立DNN所生成的信號。為了實現這一目標,一個集中且高性能的計算平臺不可或缺,例如NVIDIA DRIVE AGX。

以下是NVIDIA用於自動駕駛汽車感知的一些核心DNN。

拓路者

幫助汽車確定行駛區域並規劃前方安全路徑的DNN:

  • OpenRoadNet能夠識別汽車周圍所有可行駛的空間,無論是汽車所在車道還是鄰近車道。
  • PathNet即使在沒有車道標記的情況下,也能突出標記車輛前方的可行駛路徑。
  • LaneNet能夠檢測車道線和其他規定汽車行駛路徑的標記。
  • MapNet也可以識別車道和地標,並用於創建和更新高清地圖。
具有路徑尋找功能的DNN協同工作為自動駕駛汽車制定安全的行駛路線。

具有路徑尋找功能的DNN協同工作為自動駕駛汽車制定安全的行駛路線。

道路物體檢測與分類

能夠檢測潛在路障、交通信號燈及標識的DNN:

  • DriveNet能夠感知道路上的其他車輛、行人、交通燈和標識,但無法識別燈光的顏色以及標識的類型。
  • LightNet能夠對交通燈的顏色狀態進行分類 - 紅色、黃色或綠色。
  • SignNet能夠識別標誌的類型 - 停止,讓行,單行道等。
  • WaitNet能夠檢測必須停車等待的情況,例如十字路口。

其他功能

能夠檢測汽車及駕駛艙零部件狀態,以及使操作更加便捷(如停車)的DNN:

  • ClearSightNet能夠監測汽車攝像頭感測器的可見度,檢測限制可見度的狀況,如雨,霧和陽光直射。
  • ParkNet能夠識別可用的停車位。

以上這些只是構成冗餘和多樣化DRIVE軟體感知層的深度神經網路示例。

想要了解跟更多關於自動駕駛的內容,請訪問:

NVIDIA 自動駕駛汽車技術和解決方案?

www.nvidia.cn
圖標

推薦閱讀:
相關文章