一家多產的網絡安全分析公司表示,它已經設計出了讓特斯拉的自動駕駛功能偏離路線的詭計,只需要在路面上粘貼三張小貼紙。

  Keen Lab是特斯拉“抓bug”名人堂裏的兩次獲獎者,週六在一份研究報告中表示,它又發現了兩種通過改變物理路面來欺騙自動駕駛系統Autopilot識別車道的方法。譯註:Keen Lab應該就是騰訊科恩實驗室,是騰訊下面的研究機構。

  首先,他們嘗試在左側車道線上用雪花幹擾圖像來混淆Autopilot的判斷,隨後團隊認爲,在現實世界中部署這種幹擾方式有點太不尋常,並且特斯拉車載電腦的學習算法似乎反應得也很快。

  “攻擊者很難在物理世界中部署一些不被人發現的標記來禁用移動中的特斯拉車的道路識別功能。”

  研究人員表示,他們懷疑特斯拉也能很好地應對這種情況,因爲一輪實驗下來,它已經在其自動駕駛儀里程中標記了許多“異常路段”。他們說,即使沒有良好的照明,或者在惡劣的天氣狀況下,這種學習能力也給特斯拉車提供了良好的車道方向感。

  Keen並沒有因爲第一個創意不高的成功率而受挫,於是又想出了讓特斯拉的Autopilot拐上錯誤車道的方法。

  研究人員在路面上畫了三個小方塊來模仿合併條帶,並使自動駕駛汽車轉向了左側逆行車道。

  “使用惡意攻擊者繪製的小方塊來誤導自動駕駛車輛轉向錯誤的交通方向有時比使其無法識別路況更危險。”Keen說,“如果程序意識到假車道通往反向車道,它應該會忽略這條假車道,然後就可以避免交通事故。”

  針對Keen的實驗結果,特斯拉表示,這些問題並不代表現實世界中的問題,也沒有哪個司機遇到過報告中提及的狀況。

  “在演示中,研究人員調整了車輛周圍的物理環境(例如在路上放置條帶或改變車道線路),以幹擾Autopilot的判斷。”該公司表示,“考慮到實際駕車過程中,司機可以隨時用方向盤或剎車超馳控制自動駕駛系統,所以那不是現實世界中的問題。”

  特斯拉的一位代表告訴Business Insider,雖然Keen的調查結果不符合該公司的“抓bug”計劃的懸賞條件,但該公司十分重視這些研究人員的看法。

  “我們知道這需要花費大量的時間、精力和技巧,我們非常期待看到他們以後的報告。”

  本文譯自 sciencealert,由譯者 majer 基於創作共用協議(BY-NC)發佈。

相關文章