原文:直擊Uber自動駕駛汽車致行人死亡事故現場
問題是Uber撞死人事件,是那名死者先違規還是汽車違規撞人,汽車對於突發事件沒有及時反映這是汽車在更迭道路上必然會經歷的,相信未來Uber能廣泛流行於市場
先上Uber公開的事故視頻:
事故本身很好定責,但因為多了個自動駕駛,所以事情變得複雜。而這種複雜源於大家對自動駕駛的誤解:
從我有限的知識了解到,所謂的自動駕駛就是一堆感測器加一套代碼,本質上還是一台圖靈機。機器不是神,雷達也有覆蓋範圍和響應時間,對於違反交通規則的行為只能被動反應而不能提前預判,演算法再厲害也不行。人性在理論上是無法計算的,例如女朋友發脾氣跑到車前說:既然你不愛我了,你撞啊。你讓自動駕駛自己決定撞不撞,這不難為機器嘛。
出事故了,責任可以在司機,在行人,在Uber管理層,但絕對不在自動駕駛,技術無罪。如果把自動駕駛改成剎車輔助,就很好理解了。如果司機沒有按照Uber的使用說明操作、無視Uber的免責聲明,責任不在Uber,反之亦然。至於行人有沒有責任就要看國情,在中國,死者為大。
其實我覺得群眾應該要對自動駕駛有一個準確且清晰的定位,而不是聽信媒體吹捧。現階段自動駕駛在少人或無人的環境下表現良好,比如在凌晨四點自動駕駛跑趟高速,司機補個覺問題不大;在多人的環境表現很渣,演算法是不可能匹配出如鬼探頭、玩手機、女司機等等諸如此類奇葩特徵的,感測器再靈敏也防不住碰瓷。李開復說的對,人不可被信任,自動駕駛必須一步到位,沒有所謂的人機協同。要麼在沒人的地方自動駕駛,要麼都一起自動駕駛,要麼就不要自動駕駛。
如果你對自動駕駛仍有不切實際期望的話,那麼請問發生以下情況,這前車的自動駕駛演算法該怎麼寫?
2016年美國全年交通事故超過600 萬起,死亡近四萬人,僅有6%的事故源於自動駕駛。2017年上半年有超過18000人死於交通事故。而美國已經超過20個州通過了關於自動駕駛汽車的立法!