Uber首起自駕致死車禍兩年後重開審判,安全駕駛員被判刑2.5年!

2020-09-30     大數據文摘

原標題:Uber首起自駕致死車禍兩年後重開審判,安全駕駛員被判刑2.5年!

大數據文摘出品

作者:劉俊寰

現在,一說到特斯拉的自動駕駛,我們不免都會提口氣表示擔心。

但說到自動駕駛車禍第一例,還要回到2018年,當時,一輛正在測試中的Uber自動駕駛汽車,以69公里的時速撞死了一位橫穿馬路的婦女。

2020年9月15日,該案重開,陪審團建議判處安全駕駛員2.5年的有期徒刑,檢察官表示:「當駕駛員操作汽車方向盤時,他們有責任以遵守法律的方式安全地控制和操作汽車。」

但安全駕駛員Vasquez在9月15日的提訊中拒絕認罪

在這之前,2019年11月,美國國家運輸安全委員會展開調查,在聯邦報告中,責任歸咎於多方:Uber、安全駕駛員、受害人和亞利桑那州

報告抨擊了Uber自動駕駛部門對「安全風險評估程序不充分」,除此之外,Uber還因「無效的」車輛監控和「自動化自滿(automation complacency)」而受到指責。換句話說,Uber並沒有試圖確保安全駕駛員遵守旨在防止分心和對周圍環境保持警惕的政策。

但在事故發生後的調查階段,原本管轄坦佩的檢察官,將該案件移交給了另一個檢察官。去年三月,在一封公開信中,亞瓦帕伊郡檢察官Sheila Sullivan Polk表示,「事故發生的視頻很可能無法準確描述當時發生的事件」,「沒有依據判決Uber需要承擔刑事責任」。

當時的安全駕駛員Vasquez被發現,在車裡她有34%的時間盯著自己的手機,同時播放「聲音」。車禍發生前6秒鐘,她從手機上分了心,車禍發生前1秒鐘,她回頭看了看路。

同時,調查人員發現受害人體內含有甲基苯丙胺,這可能導致被害者試圖越過人行橫道邊界穿過街道,在這一點上,亞利桑那州對自動駕駛汽車及其人們在公共行為上的監管力度「不夠」

雖然車禍頻出,但我們也必須承認,自動駕駛技術正在逐漸成熟,馬斯克甚至在2020世界人工智慧大會上放出「豪言」,要在年內實現真正的L5級自動駕駛。

但我們也不免要再問一句,安全問題應該如何保障?

這個新算法能幫助避免自動駕駛出車禍,但前提是駕駛員遵守規定

或者我們換個提問的方式,要讓自動駕駛保持安全行駛,真的有這麼困難嗎?

最近,德國研究人員收集到了多項車輛數據,在計算機中進行了仿真模擬測試,結果發現,只要人類駕駛員完全遵守相關規定,他們的算法就能使自動駕駛的車禍率大大降低。甚至,該算法還能夠在此基礎上考慮到各種意外事件,比如路邊突然竄出來的行人。

他們發現,該算法在任何時候都沒有提出任何不安全的路線。研究人員對此也表示稱,自動駕駛汽車的車禍不是技術的失誤,而這些人為造成的事故都可以被消除

相關論文刊登在了nature上:

https://www.nature.com/articles/s42256-020-0225-y

當我們說到自動駕駛,可能唯一沒有爭議的點在於,系統不會像人類司機那樣失去注意力或感到疲勞。但同時,機器對於突發情況的反應也沒有人類那麼迅速。

「自動駕駛汽車只會執行安全軌跡,即使在使用了預期的軌跡規劃器而不知道其他交通參與者的情況下也是如此。」「我們的技術為現有的運動規劃框架提供了一個安全層,為自動駕駛車輛提供了預定的軌跡。」

儘管研究人員不可能窮盡所有自動駕駛汽車可能遇到的所有交通場景,但他們可以提供一個總體無事故軌跡的框架。比如下圖,規劃軌跡(黑線)通常只考慮其他交通參與者最有可能的行為灰線),在線驗證技術通過始終保持故障安全軌跡(紅線),確保自動駕駛汽車符合法律安全要求。這些故障安全軌跡不會與其他交通參與者的所有合法行為(藍色區域)相衝突,並保護自動駕駛車輛沿著其預定軌跡到達安全狀態(灰色區域)。

研究人員表示:「十字路口的左轉彎是最危險的地方,因為自動駕駛汽車必須考慮迎面而來的汽車,還要給路人和騎行者們讓路。」

現在,我們用下圖解釋一下重新規劃時的驗證過程。

最初,在t0時,假設自動駕駛車輛處於停車之類的安全狀態。在驗證周期c=1中,自動車輛成功驗證給定的預期軌跡,於是汽車在t1時刻進入自動駕駛模式,同時開始執行驗證軌跡。

然後,意圖軌跡規劃器(intended trajectory planner)可以提供新的意圖軌跡,如果新的軌跡被成功驗證,自動駕駛汽車就會在tc前過渡到新驗證軌跡。反之,如果驗證失敗,算法則繼續按照之前的方式進行規劃。

如果在最終的安全時間內,沒有新的預定軌跡能夠被成功驗證時,算法才會執行失敗軌跡。

但是,只要其他汽車或行人不違反交通規則,這個先前驗證過的軌跡就不會發生碰撞,因為基於集合的預測已經預見到了他們未來的所有合法行為。

針對論文中的模擬,蘇塞克斯大學認知科學中心的Ron Chrisley博士指出:「該算法假設其他行人或騎行者們的行為都是合法的,這可能會導致該系統另一個基於行人和騎行者們實際行為的系統相撞。」

「如果自動駕駛汽車把其他人的可預測但不合法的駕駛和過馬路等行為考慮在內的話,它本可以避免碰撞的。這麼說的話,如果說自動駕駛汽車的車禍在嚴格意義上不是自動駕駛系統造成的,對事故受害者的家屬來說,這沒有什麼安慰作用。」

司機不需要手握方向盤,就是自動駕駛了嗎?

說到「自動駕駛」,我們或許一直以來存在著認知錯誤。

如果你去特斯拉的官網逛逛,會發現對於自動駕駛(Autopilot),特斯拉的定義是這樣的:「Autopilot是一種先進的駕駛輔助系統,根據根據國際自動機工程師學會(SAE)J3016分級標準,被歸為L2級,並得到了美國國家公路交通安全管理局(NHTSA)的認可。」

可能你會覺得這個解釋是在兜圈子,不過,官網上還有一段注釋,該系統「僅供完全專注的駕駛員使用,駕駛員的手放在方向盤上,隨時準備接管工作」,目前「還不是一個自動駕駛系統」

但是,你可以去試試在特斯拉官網訂購一台Model 3,選購頁面上會跳出一個選項,問你是否要加價選購「完全自動駕駛功能」。但是,這個所謂的「完全自動駕駛功能」,還需要「通過在真實世界行駛數百萬英里的距離來校準,並沒有完全實現

不過,或許是我們對「自動駕駛」本身的定義就出現了偏差?

最基本的含義來講,Autopilot是一個涵蓋了各種輔助駕駛功能的總稱,其中包括一些基本功能,比如交通感知巡航控制(Traffic-Aware Cruise Control,可以讓你的速度與周圍車輛的速度相匹配),以及自動輔助導航駕駛(Navigate on Autopilot,目前還在測試中,這項功能可以讓你在高速公路上實現自動駕駛)。

不過,馬斯克此前在推特上表示,「特斯拉自動駕駛(Autopilot)是根據航空業使用的術語來命名的」。

根據美國聯邦航空管理局發布的《飛行員航空知識手冊》,對自動駕駛的描述是這樣的:「自動駕駛被設計用於控制飛機和幫助降低飛行員的工作量。自動駕駛的常用功能有高度和航向保持。自動駕駛系統結合了一個可以自動或者手動脫離系統的斷開安全功能,它也可以被手工取代,或者與無線電導航信號配合。」

換句話說,出現在航空領域中的「自動駕駛」,描述的是一套輔助飛行員駕駛的系統,而不是取代飛行員的系統。但即使如此,對於用戶,當我們聽到「自動駕駛」一詞,都會自然而然地認為,開車時是不需要用手握方向盤的。

這可能是特斯拉事故頻發的原因之一,也或將成為自動駕駛汽車祛魅的關鍵。

時速開到150,還在車裡打盹?!馬斯克給你的勇氣?

這不,這樣的事故,說來就來。

7月的時候,一輛自動駕駛的特斯拉在加拿大艾伯塔省高速公路上正在以152公里/小時的速度行駛著,這讓巡邏的交警感到驚訝,除了明顯的超速行為外,他們驚訝的點更在於,在這輛超高速行駛的汽車中,他們竟然沒有看到一個人影

艾伯塔省皇家騎警表示,他們在7月9日下午接到了其他司機的提醒,在經過調查後發現,這輛正在高速行駛的特斯拉Model S中,前排座位的兩個人都在睡覺

根據警官回憶,這裡路段限速是110公里/小時,但特斯拉的自動駕駛系統加速到了140公里/小時,而隨著警車逐漸接近,特斯拉加速到了152公里/小時,最後穩定在了150公里/小時。

其中一名警官表示,「看到汽車還在加速,我非常震驚」,「我當警察超過23年了,從未見過這樣的事情」。

一直到警官打開警笛,在特斯拉內打盹的司機才甦醒過來,手動把車停在了路邊。

這位來自英國的20歲男子被控超速駕駛,並因疲勞駕駛被吊銷了24小時駕照,同時,該省還決定對他進行危險駕駛指控,預計將於12月開庭。

萬幸的是,這次的事故並沒有任何人員傷亡,但這也足以讓警鐘再響,對於自動駕駛汽車,我們切不可掉以輕心。

相關報道:

https://www.theguardian.com/world/2020/sep/17/canada-tesla-driver-alberta-highway-speeding

https://www.engadget.com/uber-autonomous-crash-negligent-homicide-032513753.html

https://www.vice.com/en_in/article/qj4qbw/uber-safety-driver-charged-in-first-death-caused-by-self-driving-vehicle?

https://www.dailymail.co.uk/sciencetech/article-8731345/Algorithm-makes-self-driving-cars-accident-proof-scientists-claim.html

文章來源: https://twgreatdaily.com/zh/PBng3XQBd8y1i3sJNSw6.html