希望可以不用操作方向盤那些離合那些,只要在手機上編輯好哪裡到哪裡什麼時候啟動,最好有個啟動按鈕,智能控制安全距離智能停靠,那些什麼時候才能實現吶


近日有報道稱,谷歌的一輛無人駕駛汽車在美國加州城市芒廷維尤道路上行駛時,因開得太慢被交警攔下,而谷歌則回應稱這是出於安全和大眾接受角度考慮。

儘管如此,谷歌無人駕駛汽車總行駛里程,在今年10月底已經突破120萬英里(約合193萬公里)大關。驚人的是,這個沒有方向盤、沒有剎車踏板、沒有油門踏板的無人駕駛汽車,經谷歌方面宣稱,從未收到過違章罰單。這樣的記錄,在「馬路殺手」頻現的當下尤為令人驚嘆。

那麼,這樣的技術是如何實現的?無人駕駛汽車如何實現避障?如何識別各種交通信號並作出判斷?行駛路線又如何規劃控制?這些技術的背後,依靠的是攝像頭、雷達、GPS等感測器檢測道路信息,同時由車載電腦分析處理道路信息數據並控制車輛,使無人車安全、快速到達指定目的地。

隨著技術的日趨發展,無人駕駛汽車正在從科幻電影中的場景道具變得越來越真實,而無論是谷歌、蘋果、UBER這樣的互聯網科技企業,還是賓士、沃爾沃、凱迪拉克等傳統汽車廠商,都正在加入這個「戰團」。

避障主要是由測距儀、雷達跟攝像頭同時得到道路信息,測距儀可以高速獲取障礙物的距離。接著由車載電腦處理信息並且通過控制演算法作出線路決策

為了使無人車安全、快速的到達指定目的地,從原理上來說,需要通過感測器感知路況和周邊情況,然後傳輸到中央處理器,中央處理器根據人工智慧對情況作出判斷,然後通知電傳系統,電傳系統根據信號操控機械裝置,最後由機械裝置操控車輛做出各種動作。

最為人所好奇的是,當行駛途中障礙物出現時,無人駕駛汽車如何實現避障?華南理工大學機械與汽車工程學院教授李巍華表示,避障主要是由測距儀、雷達跟攝像頭同時得到道路信息,測距儀可以高速獲取障礙物的距離。接著由車載電腦處理信息並且通過控制演算法作出線路決策。

谷歌從2009年至今都在為這項技術埋頭苦幹,其中避障和路徑規劃是兩大核心問題。相機、雷達、GPS等用於檢測道路信息的感測器,就仿如無人駕駛汽車的耳目。

根據今年5月中旬谷歌披露的技術細節信息,在避障方面,激光測距儀、攝像頭以及雷達堪稱三大關鍵的感測設備。

谷歌無人駕駛汽車的一個突出特點就是其車頂上方的旋轉式激光測距儀,該測距儀能發出64道激光光束,幫助汽車識別道路上潛在的危險。該激光的強度比較高,能計算出200米範圍內物體的距離,並藉此創建出環境模型。

在谷歌無人駕駛汽車的前後保險槓上面,一共安裝了四個雷達,這是自適應巡航控制系統的一部分,可以保證無人駕駛汽車在道路行駛時處在安全的跟車距離上,按照谷歌的設計,其無人車需要和前車保持2-4秒的安全反應距離,具體設置根據車速變化。從而能最大限度地保證乘客的安全。

而安裝於車頭的前置相機主要用於近景觀察,這個相機除了要負責記錄車輛周邊環境等詳細信息,還要負責記錄行駛過程中的交通信號燈、交通標誌標線等。如同眼睛的作用,無人駕駛汽車的視覺感測器系統,在無人駕駛智能車的安全可靠行駛中起著無法替代的作用。

此外,谷歌汽車的後輪上,還有超聲感測器。這個感測器有利於保持汽車在一定的軌道上運行,不至於跑偏。在遇到需要倒車的情況時,這些超聲感測器還能快速測算後方物體或牆體的距離,幫助汽車在狹窄的車位中實現停靠。

機器視覺

圖像處理識別交通信號

車載計算機的處理運算就如同無人駕駛汽車的大腦。它的運算速度,很大程度上決定了汽車作出準確及時判斷的程度。因此,基於圖像處理的障礙物識別技術成為無人駕駛領域未來發展的一種趨勢

設想一下,無人駕駛汽車跟在一部車的後面,而前車的轉向燈突然開啟,這時候,無人駕駛汽車該如何作出反應?還有各種的限速、單行道、雙行道和人行道標示等等,這些都需要無人駕駛汽車進行識別。

在這個時候,車載計算機的處理運算就如同無人駕駛汽車的大腦。它的運算速度,很大程度上決定了汽車作出準確及時判斷的程度。因此,基於圖像處理的障礙物識別技術成為無人駕駛領域未來發展的一種趨勢。

視覺感測器系統所需要完成的識別任務,至少包括以下多個方面內容:對車道線進行識別,保證車輛在車道內行駛,並確定需要作有無障礙物判斷的感興趣區域;判斷區域內是否有行人、車輛等需要避讓的障礙物,是否需要對車輛行駛狀態作出及時改變;判斷障礙物是動態還是靜態,如果是動態則預判其下一步行動;當感知部分的感測器採集到前方的信號燈信息時,要做出正確識別。

李巍華介紹,在判斷障礙物的動靜態時,無人駕駛汽車首先會識別移動物體是動態還是靜態,假如是動態,就進一步判斷是什麼,比如說是人,那遵循人先通過原則;在判斷障礙物性質時,則會通過圖像處理技術,對障礙物的高低大小進行識別,如果不影響車輛通行,則直接通過;而在識別紅綠指示燈時,為了避免同顏色同形狀的其他物體的幹擾,視覺系統會將其交通燈視為一個立體視覺的整體,並根據它的高度以及形狀進行判斷。

要完成這一系列工作,視覺感測器系統主要由圖像的採集模塊、處理模塊、特徵提取模塊等組成。其中圖像採集模塊的主要功能是獲取外界的數字圖像;圖像處理模塊是對採集來的圖像進行預處理,為後面的特徵值提取、障礙物的檢測做準備工作。

為了使識別更有效率,系統通過演算法對圖像信息進行篩選,只提取感興趣區域。比如,車輛在直線行駛和轉彎時,智能車對於前方區域進行判定障礙物是否存在的範圍是不一樣的。當車輛根據信號燈指示需要轉彎時,車輛正前方區域的障礙物則不必檢測因此也就不必作為障礙物對待。這樣就避免了對圖像中的所有部分進行處理,在很大程度上保證了系統的實時性。

導航系統

定位誤差不超車道寬度

無人駕駛汽車對GPS定位精度、抗幹擾性提出了特殊要求。在無人車行駛時,GPS導航系統要不間斷地對無人車進行定位。在這個過程中,無人車GPS導航系統要求GPS定位誤差不超過一個車道寬度

無人車面臨的另一關鍵挑戰,是需要確保它們有完美無缺的導航功能。

快速發展的數字地圖(Digital Map,DM),能為無人駕駛車提供詳細的道路坐標信息,同時路徑規劃演算法的不斷優化,為無人駕駛車GPS自主導航系統利用DM進行導航與路徑規劃提供了可能性。今年8月份,奧迪、寶馬和戴姆勒聯手斥資31億美元(約合人民幣197億元)從諾基亞手中收購了Here地圖業務。導航已經成為廠商們研發無人駕駛技術的重要前提。

實現導航的主要技術,是如今在現實生活中已經廣泛應用的GPS技術。由於GPS技術所具有的全球性、全天候、無積累誤差、自動測量的特點,在無人車中同樣可以利用GPS進行定位、導航。

由於應用背景的特殊,無人駕駛汽車對GPS定位精度、抗幹擾性提出了特殊要求。據瞭解,在無人車行駛時,GPS導航系統要不間斷地對無人車進行定位。在這個過程中,無人車GPS導航系統要求GPS定位誤差不超過一個車道寬度。

大幅提升GPS測量精度的是差分GPS測量技術。相比傳統的GPS技術,差分GPS測量會在一個測站對兩個目標的觀測量、兩個測站對一個目標的觀測量或一個測站對一個目標的兩次觀測量之間進行求差,目的在於消去公共的誤差源,包括電離層和對流層效應等。

差分GPS測量技術為無人駕駛車GPS自主導航系統的實現提供了必要的技術支持,特別是CORS基站網的廣泛建立,用戶實現了大範圍內的實時高精度差分,使導航誤差成功縮減至小於車道寬度,無人車可通過高清相機、激光雷達對交通標誌線的識別和馬路道牙的檢測,使無人車行駛時保持在車道內。

不過,再精準的GPS也會有信號失靈的時候。這時候,無人駕駛汽車的另一項定位技術——慣性導航技術就將派上用場。這項最早應用於軍事領域的技術,一開始是用來為火箭導航的。它採用機械陀螺儀、加速度計作為慣性感測器,不間斷採集載體的瞬時加速度、瞬時角速度和旋轉角度,以牛頓力學三大定律為理論基礎推算載體的運行速度和運行軌跡,通過不斷的實時計算得到載體位置信息。

從GPS接受機或慣性導航設備接收到實時傳來的位置數據後,車載電腦會進行分析處理,結合路網文件判定無人車的當前位置,並給出無人車縱向和橫向控制要求,進而達到在無人行駛中的穩定控制。

5年內或迎技術井噴

應用展望

值得注意的是,各廠商不約而同地將一些無人駕駛汽車上市的時間設定在2020年前後。不過,這個無人駕駛汽車並非指真正意義上能夠擺脫司機的駕駛模式

在不久前結束的第44屆東京車展及第66屆德國法蘭克福國際車展上,有不少廠商紛紛展示了他們所研發的無人駕駛概念車。

如日產公司展出了配備人工智慧自動駕駛功能的IDS概念車,有人駕駛時汽車人工智慧能夠學習駕駛者的駕車習慣,並在無人駕駛時模擬這一習慣;豐田公司旗下高端車品牌雷克薩斯展出的該品牌首款氫燃料電池車LF-FC、三菱汽車展出的SUV款eX概念車等,也都具備無人駕駛功能……

除了傳統車商,科技企業對於無人駕駛技術的應用更加激進,特斯拉甚至已經宣稱,在該品牌較新車型上下載「自動駕駛」(Autopilot)功能,就可以基本實現自動駕駛,但特斯拉同時也警告司機不要完全放棄控制汽車……

值得注意的是,各廠商不約而同地將一些無人駕駛汽車上市的時間設定在2020年前後。不過,這個無人駕駛汽車並非指真正意義上能夠擺脫司機的駕駛模式,又或者僅適用於個別地區而非完全能在城市道路上實現無人駕駛的汽車。

據路透社報道,豐田首席安全官吉田盛隆(Moritaka Yoshida)最近在展示公司自動駕駛技術的一次演示會上表示:「我們預期,到2020年汽車還離不開司機。」

事實上,在業界一般會將無人駕駛技術分成四個階段:第一階段是包括車道偏離警告在內的駕駛員輔助技術;第二階段是半自動駕駛,包括緊急自動剎車、自動泊車等;第三階段是高度自動駕駛,即汽車在駕駛員監控下,自動控制行駛;第四階段是完全自動駕駛,指在沒有駕駛員監控的情況下,汽車實現完全的自動駕駛。

我們如今所討論的無人駕駛,一般指第三階段及以上的無人駕駛。而谷歌及各大廠商們所希望最終實現的,顯然是最終形態的第四階段。距離實現這一目標,大多數專家認為,至少仍需要數10年的時間。

延伸

無人駕駛汽車還要幫助管理城市

關於無人駕駛汽車的美好設想,並不僅僅在於解放司機。

在今年10月份的一次新聞發布會上,Here聯網駕駛體驗副總裁弗洛里斯·馮—德—克拉斯霍斯特(Floris van de Klashorst)說,未來無人駕駛汽車不僅僅在城市內穿梭,還幫助管理城市。

當汽車在城市中穿梭和在公路上行駛時,它們不僅收集與交通車流有關的數據,還會收集與它們「看到」的事物有關的數據。它們將成為智能「蜂羣」,出於導航目的相互「交談」,也向控制中樞發送信息,幫助管理機構瞭解城市正在發生的一切事物。

馮-德-克拉斯霍斯特表示:「汽車將幫助我們維護地圖。」汽車維護的地圖將成為動態的「活的事物」,使車輛和它們所處的環境保持同步。他說,「地圖不再是靜態的,它將成為真實世界高清、高精度的表示」。


無人駕駛道阻且艱

鑒於5G對於自動駕駛的不可或缺,業內對這項技術翹首以盼多年,近日終於守得雲開見月明。10月31日,在2019中國國際信息通信展覽會上,工信部與中國移動、中國聯通、中國電信、中國鐵塔一同宣佈啟動5G商用,中國正式進入萬物智能互聯的新時代。

那麼,5G來了,自動駕駛還遠嗎?

目前來看,尚遠。

因為5G自動駕駛的實現很大程度上依賴於5G網路的覆蓋範圍,如果覆蓋不到位,會導致信息傳輸速率不穩定,忽高忽低,這對自動駕駛汽車而言是非常危險的。而目前現狀是,5G會優先在國內一線城市以及部分重點地區鋪設,覆蓋面還不足以支撐自動駕駛汽車的大規模運行。

具體來看,截至9月底中國聯通已在40多個大中城市部署建設5G基站2.5萬個,預計今年全年將建設4萬個;中國電信5G基站建設數量與聯通基本相當。中國移動相對多一點,目前已在全國300多個城市開展5G網路建設,並已在超過50個重點城市建成5G基站4萬多個。其中僅北京地區,三大運營商就已經建設5G基站超過1.3萬座,開通5G基站超過1萬座。

就區域而言,儘管此次三大運營商首批開通5G商用服務的城市有50個,然以一線城市覆蓋面積較大,偏遠地區受限於獨立組網技術、建設成本及運營商戰略佈局等因素,信號覆蓋較少。這意味著,5G網路距國內全覆蓋尚需時日,更遑論基於5G網路的自動駕駛落地,同樣如此。

在安波福中央電氣(上海)有限公司中國區總經理沈國樑看來,雖然中國的5G技術處於世界領先水平,普及速度也很快,但由於5G網路輻射面、信號覆蓋範圍是一個由點及面的動態過程,導致自動駕駛的實現過程也將先從大城市開始,然後隨著相關條件的逐步成熟,慢慢向三四線城市或者是一些縣級市延伸。

「這就像汽車的普及一樣,首先在一二線城市應用,等這些地方的保有量逐步飽和了,再向三四線城市擴展。目前4G網路方面,國內很多地區已經普及了,5G的話,預計兩三年內一二線城市都會普及,五年之內肯定會在三四線城市普及,那麼基於5G網路的自動駕駛也將是這樣一個動態的落地過程。」沈國樑表示。

中國移動(上海)產業研究院副院長陳豫蓉也認為,5G-V2X和5G自動駕駛技術的推廣將是一個漸進的過程,即先從部分區域、部分場景開始落地,然後逐步擴展到全區域、全場景。因為基於5G-V2X的自動駕駛,尤其是高級別自動駕駛,對道路配套設施、產業鏈資源整合、前沿技術突破以及配套法規等都有較高的要求,這決定了自動駕駛難以一蹴而就。

具體來看,陳豫蓉指出限定場景下的車路協同系統將率先落地,比如高速公路、礦區、港口、園區等,與這些場景相對應的,則是自主泊車、定點接送、快速公交、有限地域無人駕駛計程車等自動駕駛服務,均有望率先進行商業化量產。

因為這些封閉的場景閑雜人員相對較少,路況相對較簡單,再加上範圍限定,可以很輕鬆地實現5G信號全覆蓋,並對路況進行相應的改造,真正做到無死角感知,全路段自動駕駛。而全場景的自動駕駛,即使有了5G加持,也還有很長一段路要走。(蓋世汽車)


昨天剛聽了一場車聯網的知識普及,總結下吧。

無人駕駛技術可以分為五個層次:

L1:完全無智能化。駕駛人員是汽車的決策者和執行者。

L2:具有特殊功能的智能化。智能化系統與駕駛人員共存,智能化系統會以給警告駕駛人員的方式進行部分決策,而駕駛人員擁有執行權。

L3:擁有多項原始控制功能的智能化。汽車擁有大於兩個原始控制功能的執行權,實現半自動駕駛技術。

L4:有限制的無人駕駛。汽車進入高度自動駕駛的段位,在符合條件的交通環境下可以自主駕駛。

L5:全工況無人駕駛。在任何交通環境狀況中,汽車都可以全面自動駕駛。這是我們想要到達的階段。

當前L2等級的無人駕駛技術應該已經較為成熟,商用了。

當前無人駕駛技術主要使用毫米波雷達,在封閉機場、產業園等場景下,可以基本實現無人駕駛。激光雷達更為敏感,視角等更好,但是價格較高,應用不及毫米波雷達廣泛。

至於大規模上路,當前技術還不是很樂觀,主要體現在自身技術和5g技術都不是很成熟上。自身對路況、突發情況的處理,5g的帶寬、時延、車路協同等都存在短時間內無法解決的問題,估計很可能得以十年為時間單位。


咱們首先來看看無人駕駛相比傳統的有哪些升級:

  1. 更多的感測器:增加了微波雷達、激光雷達、攝像頭、慣導等關鍵感測器。慣導技術由航空航天而來,因此技術成熟,可靠性較高,只要量上去了,成本自然就會低。微波雷達、激光雷達、攝像頭這幾類感測器幾乎需要為汽車專門定製,激光雷達技術複雜,成本高,量產困難,目前還沒有一款成熟的並且能夠大量應用的激光雷達。微波雷達技術也源於軍工,從技術成熟度來說屬於可以應用級別,縮小體積以及搞環境幹擾是目前的重心。工業攝像頭使用場景寬泛,但是工業環境單一,而車載攝像頭需要更大的動態範圍:從烈日正午到深黑夜晚,這麼寬的動態範圍是目前攝像頭技術不具備的,如何解決複雜的環境,還需要時日。
  2. 更大規模的硬體:傳統的汽車內部的CPU計算能力其實比咱們的手機CPU能力還要差,但是可靠性遠遠超過了手機CPU,而無人駕駛要求的CPU比手機CPU能力高許多級別,且不說這些晶元是新設計出來的,從可靠性認證這一個過程就需要漫長的過程,這還僅僅只是CPU的一個認證,還有其它感測器相關的硬體,這也是一個龐大的羣體,這些硬體要進入可靠性要求極高的車規級,不僅要花費大量的金錢,更需要大量的時間;
  3. 更複雜的演算法:自從深度學習技術發展起來之後,深度學習解決了非常多的問題,但是有一個致命的軟肋一致無人解決:深度學習網路是一個黑箱,沒有人能說明他在什麼情況下不能用,從特斯拉Autopilot幾次追尾事情可以表明:Autopilot只認識見過的「尾」,訓練數據集裡面沒有見過的「尾」,就會表現不太認識,因此要確定深度學習類演算法的邊界是一件非常難的事情,在這個問題沒有解決之前,深度學慣用於自動駕駛,可靠性會大打折扣。

總而言之,無人駕駛需要的技術更複雜,需要更長的時間去研究,按目前工業化的發展速度,至少20年。


瀉藥

前面大牛寫了那麼多專業知識,我就不賣弄了。

歐洲道路交通研究諮詢委員會對2015年發布的《歐洲自動駕駛技術路線圖》進行了動態更新,將預期實現L5級自動駕駛的時間由2030年調整到了2050年之後。

so···


大概要10年以上。


1,10年時間


首先本人主要參與過車聯網相關項目,無人駕駛項目也接觸過。既然是普及那就是大家都能用,技術上扯再多都沒啥用,個人看來普及主要兩個難點。1,出現事故責任劃分問題,是消費者,還是生產者,還是應用實現的哪一方。2,車子設備價格問題。後者好解決只要有市場就有產量,有了產量硬體設備隨後也會隨著降價。主要是前者問題google弄了這麼久無人駕駛,美國一直沒有推廣估計法律問題也佔了很大一部分


在汽車領域,手機控制屬於車聯網的功能,已經實現,目前在高配的車上就有這個功能。智能停靠以及安全距離控制屬於Adas(輔助駕駛)的功能,比如說,自適應巡航就可以在行駛過程中保持安全距離,但是需要控制方向盤。自動泊車也可以在不幹預的情況下倒車入庫。這些功能都已經實現。至於實現真正意義上也就是全路況下的自動駕駛並且商用,估計至少還需要20年以上的時間,這取決於交通基礎設施的重建,安全,等一系列因素。


推薦閱讀:
相關文章