愚人節前的週末,騰訊科恩實驗室給特斯拉提前過了一個愚人節,通過“欺騙”傳感器,使得特斯拉的Autopilot自動輔助駕駛系統(車輛:Model S 軟件版本:2018.6.1)產生誤判,最終發現了三個“漏洞”。

雨刷的視覺識別漏洞

特斯拉Autopilot系統藉助圖像識別技術,通過識別外部天氣狀況實現自動雨刷功能。科恩實驗室利用AI對抗樣本生成技術生成了特定圖像,並對特斯拉進行幹擾,成功導致特斯拉Autopilot“受騙”,車輛雨刷啓動。

讓我看見你搖擺的雙手!

對此,特斯拉官方回覆稱:這項研究是通過在電視上顯示一張圖像來進行幹擾的,並非日常行車場景,況且這也不能算是安全問題。此外,《車主手冊》也明確提到,“自動雨刷功能目前處於測試階段,客戶可隨時手動控制雨刷。”

雖然雨刮器確實不影響日常行車安全,但特斯拉的圖像傳感器和圖像處理工具,除了應用在“自動雨刷功能”外,還肩負着識別前方道路環境,跟車行駛等核心功能,如果利用這一“漏洞”生成其他特定圖像,是否會干擾到和與安全密切相關的核心功能呢?

而且特定的幹擾圖像也是會出現在日常行車場景中的,例如不壞好意的人將幹擾圖像貼在車尾?這樣一上路,整條Gai特斯拉的雨刮器,一個也別想休息,全給我搖起來!

吹個牛逼:整條街的特斯拉,見了我都得招手。

車道的視覺識別缺陷

特斯拉Autopilot系統通過識別道路交通標線,可實現L2.5級的自動駕駛。科恩實驗室通過在路面部署幹擾信息後,導致車輛經過時對車道線做出錯誤判斷,致使車輛駛入反向車道。

請勿模仿!

對此,特斯拉官方回覆稱:演示中,研究人員調整了車輛周圍的物理環境(比如在道路上放置膠帶),使汽車在使用自動駕駛儀時表現不同。考慮到司機可以隨時接管方向盤或剎車輕鬆地覆蓋自動駕駛儀,而且應該隨時準備這樣做,所以這不是一個現實世界的問題。”

首先這個問題在現實生活中有一定概率出現,例如一坨鳥屎,是否會導致一輛特斯拉失控,奔向別人的道?自動駕駛普及之後,對道路標線等環境的監管,需要更加嚴格,不法分子通過惡意改變道路標識,便可造成嚴重的社會治安問題,想想非常可怕。

作死網友用橘子破解特斯拉的方向盤感應,從而“解放雙手”

正如特斯拉官方回覆的那樣,現階段人類駕駛員不能盲目自信“自動駕駛”,時刻注視前方道路環境纔是對自己人身安全負責的表現。

遙控器操控車輛行駛

最重磅的來了,利用已知漏洞,科恩實驗室獲取了Autopilot的控制權,並通過實驗證明,即使車主沒有主動開啓Autopilot系統,“黑客”也可以通過遊戲手柄對車輛行駛方向進行操控。

什麼極品飛車、塵埃、GTA5......都弱爆了好麼!這纔是遊戲手柄的終極使用形態。

“白帽子”們在越過幾個保護系統之後,編寫了一個應用程序,該程序可將Autopilot系統與遊戲手柄相連,越過車內方向盤、油門等駕駛員的人工操作,直接接管汽車的控制權。但是此攻擊具有一定的侷限性:當車輛處於停止狀態(P檔),或是在巡航控制下高速行駛時,可以完全接管該車;剛剛從R檔換到D檔的汽車,只有滿足時速爲8km/h時,才能被遠程控制。

對此,特斯拉官方迴應是:“這個漏洞特斯拉通過2017年的一次更新已經修復,隨後在2018年又進行了一次全面的更新,這兩次更新都是我們在科恩實驗室向我們報告這項研究之前發佈的。在特斯拉車主上路行駛的這麼多年裏,官方從未接到任何客戶反饋此類問題”

騰訊是特斯拉的第五大股東,科恩實驗室的“攻擊”並非“本是同根生,相煎何太急”,而是通過發現漏洞促進特斯拉技術上的完善,除了此次“攻擊”,Autolab查閱到科恩實驗室此前還多次通過“遠程無物理接觸”成功入侵特斯拉汽車,特斯拉官方也根據科恩實驗室的反饋做了系統上的更新,還在官網公佈對科恩實驗室的感謝信。總地來說,網絡安全是智能網聯汽車發展所面臨的重要課題,但願“白帽子”們總能在“黑客”發起惡意進攻前,找到漏洞,把危險扼殺在搖籃裏。

參考信息:https://keenlab.tencent.com/zh/2019/03/29/Tencent-Keen-Security-Lab-Experimental-Security-Research-of-Tesla-Autopilot/

相關文章