盤點這幾年自動駕駛惹的禍,沒人該為科技進步犧牲

2019-12-11     行者啊

特斯拉又出車禍了,美國時間2019年12月7日,在康乃狄克州的一條高速公路上,一輛特斯拉連撞兩車,最後被警方逼停。特斯拉車主給警方的解釋是,他已經打開了Autopilot(特斯拉的自動駕駛系統),因為后座上的狗一直在鬧,於是起身去看一下后座上狗的情況怎麼樣,沒想到這時候就撞車了。雖然事故當中沒有人受傷,但司機如今還是收到了魯莽駕駛和魯莽危害行為的指控。據美國警方公布,特斯拉已經發生了至少5起自動駕駛致死案!

就在去年3月,Uber的自動駕駛汽車在亞利桑那州坦佩市進行測試時發生了一起車禍,一位婦女被撞倒並最終喪生。美國國家交通安全委員會近日公布了Uber去年自動駕駛撞人事件中的一些細節。文件顯示,Uber的自動駕駛汽車在發生撞擊前5.6秒鐘就檢測到了行人,但將其錯誤識別為汽車,撞擊前5.6秒時又將其歸類為其他物體,此後系統對物體的分類發生了混亂,在「汽車」和「其他」之間搖擺不定,浪費了大量寶貴的時間,因此車輛沒有及時剎車。當時車內的安全員在觀看電視節目,並未採取措施,最終導致事故發生。除此之外,文件還顯示,在2016年9月至2018年3月之間,Uber的自動駕駛汽車共發生了37起碰撞事故,有兩起事故是車輛撞到了路邊的物體,其他的事故則都是追尾和車輛刮蹭。

根據美國NHTSA標準,將汽車駕駛分為6個等級。

L0級:人工駕駛,由人類駕駛者全權駕駛汽車。

L1級:輔助駕駛,車輛對方向盤和加減速中的一項操作提供駕駛,人類駕駛員負責其他駕駛動作。

L2級:部分自動駕駛,車輛對方向盤和加減速中的多項操作提供駕駛,人類駕駛員負責其他駕駛動作。

L3級:條件自動駕駛,由車輛完成大部分駕駛操作,人類駕駛員需要集中注意力以備不時之需。

L4級:高度自動駕駛,由車輛完成所有駕駛操作,人類駕駛員不需要集中注意力,但限定道路和環境條件。

L5級:完全自動駕駛,由車輛完成所有駕駛操作,人類駕駛員不需要集中注意力,不限定道路和環境。

很明顯,目前多數汽車駕駛屬於L0級,而交規也是基於L0制定,而那些所謂的L4或L5汽車在測試時,卻在按照L0交規行駛,這就是屢次出現事故的根源。

為了應對複雜的路況,拉力賽規定除了駕駛員,必須配備副駕駛制定路書和進行導航,其作用就是為了讓駕駛員集中精力操控汽車,副駕駛替代一部分駕駛員的作用,專業「看路」並提示駕駛員。

非常類似,自動駕駛也替代了駕駛員的一部分精力,並替代駕駛員完成一部分對汽車的操控。

拉力賽需要清場,為的是在極端路面上讓汽車極速行駛創造條件,可見拉力賽遵守的交規與L0交規不同。

系統越複雜,智能程度越高,替代駕駛員的部分就越多。對於L4、L5汽車,當出現故障時,駕駛員連採取最後自救的機會可能都沒有。雖然當前的規定是,一旦駕駛員掌握方向盤,就會立刻接管操控系統,但實際上美國並不承認有任何一輛L4級汽車,說明在技術上自動駕駛並不成熟。

讓不成熟產品,本身就是對大眾的不負責任,當雪崩降臨,沒有一片雪花是無辜的,同樣,沒有一個人應該為科技進步犧牲。

文章來源: https://twgreatdaily.com/e3BX9m4BMH2_cNUgQ8VE.html