當前位置:
首頁 > 最新 > 遵守交規,就能讓自動駕駛避免車禍嗎?

遵守交規,就能讓自動駕駛避免車禍嗎?

連續發生多起車禍的特斯拉早已陷入多事之秋,其背後折射的,是並不能實現完全「自動」的自動駕駛汽車。至今為止,對於如何保證自動駕駛的安全,業界似乎沒有完善的解決方案。

上周,特斯拉又撞車了。一輛特斯拉Model S電動汽車在布魯塞爾Saint Gilles市發生車禍,連撞五輛車。據這輛Model S的車主稱,當時汽車是自主發動的,車內並無駕駛員,然後就撞上了附近的五輛車。

就在布魯塞爾車禍發生的當日,一輛Model S在加州的拉古納海灘(Laguna Beach)撞上了路邊停泊的一輛警車。據肇事司機稱,汽車當時正處於「自動駕駛」狀態。

不到一個月前,一輛Model S在佛羅里達州勞德代爾堡(Fort Lauderdale)市區撞牆起火,導致車內的3名青少年2死1傷。

對此,特斯拉全部回應稱,車禍與Model S的輔助駕駛系統Autopilot無關。

事實上,這並非是自動駕駛汽車發生的第一次車禍。其它的比如,優步在亞利桑那州的車禍,Waymo無人駕駛汽車在路測行駛過程中被一輛本田轎車無辜碰撞等。

回顧最近的每一次車禍,其實大多數是因為人類的錯誤而引發的,並不完全是自動駕駛汽車的責任。

所以,這也給自動駕駛汽車的開發者們帶來了一個巨大的難題:遵守交通規則,就可以保證不發生車禍嗎?或者說,當發生車禍時,能夠清晰判斷到底誰對誰錯嗎?

極端情況下

自動駕駛汽車該怎麼辦?

我們可以試想一下道路上的「極端情況」,比如:行人違規橫穿馬路,其他司機意想不到的操作,道路上的瓦礫和車前飛舞的塑料袋,暴雨和濃霧天氣等。不論對於人類司機還是自動駕駛系統來說,這些情況都相當驚險。

雖然我們有通用的「道路規則」,但事實上它們與規則的定義稍有差距。因為這些「規則」的條款都太模稜兩可了,我們可以從多個方向解讀。

所以,駕校教練會告訴我們,什麼時候超車最合適,什麼情況下其他車輛會適時剎車讓路,能匯入主路的最小空擋有多大,而最終判斷的依據大多是常識。

這對於在日常道路上缺乏常識的自動駕駛系統來說,無疑非常困難。在緊急情況下或車輛避險時,「規則」可能就會被打破。因此,事故發生後,判斷誰對誰錯有時會出現一筆糊塗賬。

針對自動駕駛時代的交通事故,以色列自動駕駛技術公司Mobileye CEO Amnon Shashua 就設想了一套責任劃分原則。在他看來,如果自動駕駛汽車遵規行駛,出了事故公司就無需負責,但如果是感測器出了故障或軟體故障(違反了規則),那麼公司就得承擔責任。

Shashua和他的同事們去年年底就通過一篇論文嘗試為自動駕駛汽車設計道路規則,他們將這一模型稱為「責任敏感安全」(Responsibility-Sensitive Safety),並為許多場景(如變線、匯入車流和行人或車輛佔據道路時的安全行駛)設定了數學規則。

這個模型覆蓋了美國國家公路交通安全管理局(NHTSA)事故資料庫中列出的37種預碰撞場景。據悉,Mobileye已經將這一模型用在了自家的自動駕駛平台中,Shashua也希望該模型能成為行業開放標準的基石。

好了,問題來了,安全駕駛規則真的能用數字來定義嗎?給自動駕駛汽車灌輸一個它們能理解的道路規則,則意味著規則要足夠精確。

對比,自動駕駛新創公司 nuTonomy CEO Karl Iagnemma 就道出了「天機」,他認為每家公司在解決這個問題時都有不同的方法,因此業內期盼能有個標準化的規則,讓自動駕駛汽車在面對不同情況時不會手忙腳亂。

自動駕駛的安全性如何被量化?

統計顯示,人類司機基本上每20萬英里就會發生一次事故。顯然我們不能接受自動駕駛技術和人類駕駛同樣安全。技術達到哪種水平,無人駕駛汽車才足夠安全、可以上路?

很多人堅持認為,無人駕駛汽車只有達到100%完美的安全可靠性才能合法,那意味著沒有任何碰撞、事故或失誤。然而事實是,沒有任何無人駕駛系統能夠做到始終完美可靠。

哥倫比亞大學人工智慧實驗室主任胡迪·利普森(Hod Lipson)在其2017年出版的《無人駕駛》一書中提出,只要無人駕駛汽車的安全記錄能夠超過人類駕駛員的平均水平,那它就是足以「造福人類」的。

目前,業界對自動駕駛汽車的安全可靠性進行量化,其標準就是在無人工干預的情況下,可以單獨運行的時間長度。由於自動駕駛汽車的安全性是通過安全里程來衡量的,所以我們可以設定一個基於安全里程的衡量標準:平均故障間隔距離(MDBF)。

因此,加州交通管理局(DMV)每年發布的自動駕駛「脫離報告」,對於整個自動駕駛行業安全性具有重要的參考意義。

加州交管局發布的《2017自動駕駛「脫離報告」(California Autonomous Vehicle "Disengagement Reports")》主要涉及以下兩方面內容:

一是自動駕駛汽車路測里程;二是「脫離(Disengagement)」次數。從某種程度上來說,「脫離」次數越少,系統越穩定。

以百度為例,在2016年8月31日至2017年11月30日期間,其總測試里程數為1,971.74英里(約合3,173公里),「脫離」48次,這意味著每隔41英里(66公里)發生一次「脫離」。

Waymo在加州的自動駕駛測試里程數為635,868英里,「脫離」124次,即:每隔5,127英里需人工介入操作一次。

通用Cruise自動駕駛測試里程數為131,675英里,「脫離」105次,即:每隔1,254英里需人工介入操作一次。

從報告數據顯示,Waymo與通用Cruise雙雄爭霸模式還將繼續,多家知名車企尚未開始路測,尚無法論斷其表現。而特斯拉未在加州路測,暫無法納入對比範疇。

《2017自動駕駛「脫離報告」》中並未提及具體的天氣、溫度、濕度、路面狀況等具體的測試情境,但各公司在自動駕駛技術方面存在一些通病:部分問題可歸咎於與車輛對環境的感知能力,部分問題則與道路行駛方式有關,測試車輛的車載軟硬體也是造成「脫離」的重要原因。

外部環境因素也會對「脫離」造成影響,如:行人過多、交通標識不清晰等。此外,數據傳輸的及時性(存在遲滯)、GPS定位、變道、上坡、各類感測器的感知及配合情況也是重要的影響因素。

此外,有網友調侃,中國的無人駕駛汽車需要研發防撞,防碰瓷,防加塞功能,同時還要能夠預先判斷紅綠燈故障,井蓋被偷等情況。雖然是玩笑話,但也很好地反映了無人駕駛汽車在我國所要面對的困難。

的確,無人駕駛的未來雖然在業界看來光明無限,但因此帶來的法律、規則等方方面面的顛覆也絕不是「車在路上跑,交規改一改」那麼簡單。

目前自動駕駛系統仍難以做到完全的安全可靠性,關於安全性的法律標準也需要進一步定義並量化。自動駕駛能不能如願實現科技巨頭們的美好願景,恐怕還需要時間來檢驗。

【科技雲報道原創】

轉載請註明「科技雲報道」並附本文鏈接


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 科技雲報道 的精彩文章:

「容量」成區塊鏈發展最大瓶頸 金融將是最快落地應用場景
蓄勢待發的Serverless,需要關注這四個要點

TAG:科技雲報道 |