當前位置:
首頁 > 最新 > Uber自動駕駛「殺人」,我們可以判演算法死刑嗎?

Uber自動駕駛「殺人」,我們可以判演算法死刑嗎?

策劃編輯 | Vincent

撰稿 | Vincent、Natalie、Debra

編輯 | Emily

AI 前線導讀:2022 年量產無人車!2020 年量產無人車!2018 年量產無人車!各大汽車製造商與科技大廠的「豪言壯語」仍在耳畔迴響,然而 3 月 18 日的一場突發事故給了全球自動駕駛行業一記重拳:美國亞利桑那州 Tempe(坦佩市)一名女子被優步自動駕駛汽車撞傷,之後不幸身亡。一時間,有關自動駕駛車輛安全的問題鋪天蓋地襲來,面對著一個又一個的嚴肅質問,自動駕駛行業的從業者們該如何應對?作為消費者,或者只是普通的行人,我們如何相信自動駕駛車輛的安全性?2018 年量產無人車的夢想,會因為這場事故推遲,甚至擱淺嗎?

更多乾貨內容請關注微信公眾號「AI 前線」,(ID:ai-front)

據今日凌晨外媒報道,上周日(18 日)晚上 10 點,美國亞利桑那州 Tempe(坦佩市)一名女子被優步自動駕駛汽車撞傷,之後不幸身亡。路透社報道稱,這是全球首例自動駕駛車輛致人死亡的事件,或對該項新技術的引入形成衝擊。一名優步發言人稱,優步將暫停其在美國和加拿大的自動駕駛項目。

Tempe 警察部門報告稱,事發時,儘管有一名司機坐在方向盤後面,但是,這輛車當時正處於自動控制模式,當時行駛車速為每小時 38 英里,而該地區限速為每小時 35 英里,而且沒有嘗試剎車。該車當時正朝北行駛,而該女子正在從距人行橫道 100 碼(約 91 米)的地方從西往東走。另據福克斯新聞網報道,優步當地時間 19 日在推特賬號聲明稱,將全力配合當地警方進行調查。

據《財富》北京時間 3 月 20 日報道,亞利桑那州坦佩警察局局長西爾維亞·莫伊爾(Sylvia Moir)表示,初步調查顯示,在致一名行人死亡的交通事故中,Uber 可能不存在過錯。他表示,Uber 自動駕駛汽車配備的攝像頭拍攝的視頻顯示這次交通事故過錯在受害者本人——今年 49 歲的伊萊恩·赫茨伯格(Elaine Herzberg),而非 Uber。「根據受害人橫穿馬路的方式,無論是有人還是自動駕駛模式,要避免這起交通事故是極其困難的。」

事故的具體原因還在調查之中,現在下定論是 Uber 還是受害者的過錯還為時過早。

自動駕駛車輛事故頻發,它真的夠安全嗎?

這次事故很容易就讓人聯想到 2016 年特斯拉的兩起自動駕駛致死事故,讓其再度陷於自動駕駛是否安全的漩渦之中。

是的,這次 Uber 自動駕駛致死案,並不是如多家媒體標題所謂的「第一起自動駕駛致死案」,連帶這次,自動駕駛車輛已經至少出過 3 次致人死亡的事故,而且都是在開放路段上發生的。只不過,之前兩次事故死亡的是駕駛員,這次是導致行人死亡的第一起事故。

據《紐約時報》報道,2016 年 1 月 20 日,在中國邯鄲一高速路段,一輛駕駛特斯拉 S 的司機在事故中喪生,中央電視台對此事進行了報道。車中的行車記錄儀顯示,該車以左車道以公路行駛速度行駛時撞上一輛道路清掃車,當時特斯拉處於自動駕駛狀態。

GIF

「當特斯拉靠近清掃車時並沒有制動以避免撞車。」一名警官在 CCTV 報道中表示。

對此,一名發言人稱,因為事故車輛損毀嚴重,無法向伺服器傳送數據,因此無法判斷當時車輛是否處於自動駕駛狀態,特斯拉在一封郵件聲明中回應沒有證據表明事故發生時該車處於自動駕駛狀態,並拒絕告知獲悉該公司產品在中國發生車禍事故的時間,以及是否向美國安全部門報備此事件。

特斯拉稱,自動駕駛不能完全取代人類駕駛,自動駕駛模式激活時會向司機發出語音和文字信息以警醒注意狀況發生。

一開始,交警判定特斯拉車主負主要責任,但受害人父親向法院提起上訴,並向法院索賠 1 萬元,稱目的不是獲得賠償,而是對社會起到一定警醒作用,即特斯拉自動駕駛不是完全安全的,不要輕易嘗試。

時隔一年後,2018 年 2 月 27 日,據央視新聞報道,這一事件有了進展:特斯拉在大量證據面前,終於被迫承認車輛在案發時處於自動駕駛狀態。

自動駕駛反對者認為,自動駕駛會誘使司機放鬆警惕,反應不及重新控制車輛。

據報道,特斯拉早在事故發生數周之後即獲悉此事,但直到 6 月末美國國家公路交通安全管理局宣布介入調查才對外界公布消息。

在中國發生的事故讓一個問題發酵:自動駕駛車輛發生事故多久後應該向外界公開消息,以及應公開哪些信息?

最後,法院判決中提到:「公眾需要了解自動駕駛技術的缺陷,」律師也說道希望特斯拉在製造產品時應該更加謹慎,不要過分地把自動駕駛作為吸引年輕人的賣點。

事故發生後不久,2016 年 5 月,特斯拉在美國佛羅里達又發生一起車禍事故。在此事故中,自動駕駛儀的雷達和攝像頭無法識別出明亮天空背景下的白色貨車,也沒有跡象表明司機或自動駕駛儀在與一輛牽引式挂車相撞前採取制動措施。

對於這起事故,經過長達半年的調查之後,美國國家公路交通安全局(National Highway Traffic Safety Adminstration,簡稱 NHTSA)確認,特斯拉的自動駕駛系統 Autopilot 並無功能缺陷,也無需安全召回。

一份 13 頁的報告顯示:

1)事發時,特斯拉的自動駕駛系統沒有出現故障;

2)特斯拉配備的自動剎車(ABE)和自動駕駛系統都有限制條件,事發時的狀況本來就超出了系統設計的適用範圍;

3)自動駕駛系統仍然需要人類駕駛員全神貫注;

4)自動駕駛系統顯著提高了安全性。引入自動駕駛後,特斯拉車禍發生率已經降低 40%。

不久前,微博上一段定速巡航賓士無法解除,在高速公路上上演生死時速的視頻火了,場面堪比好萊塢大片,在全國範圍內引起了關注。

而這樣的事情已經不是第一次發生了,早在 2012 年 11 月,浙江一車主駕車行至杭浦高速,突然發現車輛的定速巡航無法解除,也上演了一場生死時速。

時隔數年後,2018 年 3 月 14 日晚,這一幕又發生了。河南焦作車主薛先生駕駛賓士 200L 轎車開啟定速巡航,後發現車輛失控,只能以 120 公里 / 時的速度繼續飛馳,生死未卜。慶幸的是,在交警和賓士售後方面操作下,賓士車在失控近一小時、約一百公里後,終於安全停下。

針對此次事件,有媒體表示是賓士對事故車輛進行後台操作才讓車輛靠停,但隨後的官方聲明表明賓士目前還不具備此能力,車主也在事後稱三次打開車門車速才下降。

然而,隨著事件逐漸發酵,各種質疑聲也出現,有人認為整件事是車主自導自演的鬧劇,包括「作家裡最會開車的、開車中最會寫作的」韓寒。在微博長文中,韓寒發表了對這件事的幾點質疑,建議警方仔細檢測車輛,如果自己的判斷失誤願意公開道歉。

至今,這起事件的真相仍然撲朔迷離,還需要等待最後的調查結果。但不管結果如何,這都給大家敲響了警鐘,連只能算得上 L2 級別自動駕駛的定速巡航功能都存在這麼多不確定性,自動駕駛的安全隱患是個需要引起高度重視的問題。

自動駕駛系統到底哪裡出了錯?

在自動駕駛的幾次重大事故發生後,網路上對於這些事故的原因出現了各種各樣的猜測和分析。對於真正意義上的第一件自動駕駛致死案(2016 年 1 月發生於中國邯鄲),雖然今年初特斯拉已經承認事故發生時汽車的 Autopilot 處於開啟狀態,但具體的事故原因仍然不明。目前僅 2016 年 5 月份發生在美國佛羅里達州的特斯拉致死案公布了非常完整而詳盡的事故調查報告,這份報告來自美國國家交通安全局(National Transportation Safety Board,簡稱 NTSB),耗時一年半。NTSB 在報告中確認,特斯拉的自動駕駛系統 Autopilot 並無功能缺陷,也無需安全召回。至少在技術上,特斯拉並不是過錯方。

完整調查報告鏈接:

https://www.ntsb.gov/investigations/AccidentReports/Reports/HAR1702.pdf

AI 前線將報告中與特斯拉相關的關鍵結論整理如下:

特斯拉的自動車輛控制系統並不是為檢測穿過汽車行駛路徑的卡車或可能發生的車禍而設計的,而系統也確實沒有檢測到;由此,才導致事故發生時特斯拉的 Autopilot 系統沒有減速,前置碰撞警告系統沒有發出警告提示,自動緊急剎車也沒有激活。

如果自動車輛控制系統不能在符合設計的場景下自動限制系統操作,那麼被司機濫用的風險依然存在。

特斯拉駕駛員對 Autopilot 系統的使用模式表明,他並未意識到系統的缺陷且對自動控制系統過度依賴。

特斯拉 Autopilot 系統監測和響應駕駛員與方向盤交互的方式,並不能有效確保駕駛員在駕駛過程高度集中注意力。

雖然這一次特斯拉被認為並無技術過錯,但自動駕駛系統卻並非不存在失控的可能。AI 前線專訪了西雅圖 NewSky Security 聯合創始人、CTO 李嵩先生,他對自動駕駛 / 巡航系統可能的失控原因進行了簡單的分析:

對於自動巡航系統,最簡單的巡航需要感知車速,並且控制汽車發動機風門、噴油,形成負反饋循環。如果車速感測器,風門控制,油噴還有引擎控制器出問題,都有可能造成失控。但是汽車並不是簡單的負反饋機制,還有很多工程上的設計讓系統失效的時候,回到一個安全狀態,所謂的 fail-safe 設計。所以並不是隨便一個部件故障就會讓巡航失控的,即使巡航出了問題,任何加油,剎車或者手動操作都可以退出巡航狀態。所以巡航失控的可能性是非常小的。

自動駕駛即使出錯率只有萬分之一,也難大規模商業化

大眾對於自動駕駛汽車最關心的無非兩點:1. 自動駕駛汽車是不是真的安全?2. 消費者什麼時候可以真正坐上自動駕駛汽車?

對於第一個問題,AI 前線查閱了大量資料,同時採訪了有關專家,對於安全問題,我們為各位讀者總結了以下幾個要點:

(註:以下內容部分引自知乎用戶陳光的回答,原答案詳見:

https://www.zhihu.com/question/65799732)

到底什麼樣的水平才算是自動駕駛?

先來看一張各大車廠自動駕駛汽車的水平分布圖,從下往上級別逐級上升。

可以看到,目前大部分車企處在 L2 的水平線上,而特斯拉處於 L2.5 的水平,只有奧迪,一騎絕塵衝到了 L3 的水平。那麼下一個問題就來了:這些個 L 到底是什麼意思呢?

這裡就需要祭出這張全球通用的自動駕駛 SAE 分級圖了:

簡單解釋一下:

Level 0:無自動駕駛,丫就是一報廢汽車,連 ABS 防抱死系統都沒有,這種車連上路都困難;

Level 1:駕駛員輔助,一般來說,生活中常見的汽車都是這個級別的,有一些簡單的 ABS,以及在 ABS 基礎上升級而來的 ESP,還有高速路段常用的定速巡航、ACC 自適應巡航功能及 LKA 車道保持輔助;

Level 2:部分自動化,如果一個車輛能同時做到 ACC+LKA(自適應巡航 + 車道保持輔助),那麼這輛車就跨進了 Level 2 的門檻,近幾年市面上銷售的汽車也都逐漸加入了這兩個功能,向自動駕駛過度;

Level 3:有條件自動駕駛,指在某些特定場景下進行自動駕駛,某些車廠的自動駕駛汽車會有這樣的功能:當車速小於或等於 60 公里 / 小時,用戶可以啟動道路擁堵狀況下的自動駕駛功能。在當地法律允許的情況下,車輛會完全接管駕駛任務,直到系統通知用戶再次接管。這也是目前在全球範圍內,在實現量產的車型中擁有的最高級別的自動駕駛能力;

Level 4:高度自動駕駛,這也是目前百度、Uber、Google 等等科技企業在孜孜不倦進行研究的級別,它們的自動駕駛汽車有一個很明顯的共同點,就是頭上頂著一個大大的激光雷達。激光雷達提供了極高精度和極其豐富的感知信息,這使自動駕駛車自如處理極端工況成為可能。激光為主,視覺為輔,再加上車上各種功能冗餘的感測器及高精度電子地圖,在開放道路上實現 A 點到 B 點的自動駕駛不再遙遠;

Level 5:完全自動駕駛,只要給出一個 GPS 坐標點,L5 的自動駕駛車就能到你指定的地方,無論這地方的法規是靠右行駛還是靠左行駛,自動駕駛車都能輕鬆應對。即全工況、全區域的自動駕駛。目前似乎還沒有任何一家技術企業 or 車廠宣稱自己的技術達到這個層級。

想要到達 L4 以上的水平有多難?

想要達到 L4 級別,目前來說有這樣一些阻礙:

1. 感測器成本

激光雷達的成本短期內還降不下來,這也是 L4 自動駕駛汽車還未普及的重要原因之一。

2. 極高魯棒性的自動駕駛演算法及穩定的計算平台

Level 4 的自動駕駛演算法準確性和精確性需要達到,甚至超過人類的認知水平,這就需要的是極具魯棒性的演算法和穩定的計算平台。確保自動駕駛汽車即使遇到突發情況也能較好應對。

3. 高精度地圖採集資質

這一項難點國外並不存在,但是國內確實是一個很大的壁壘(國防考慮)。除了大家耳熟能詳的 BAT 有地圖測繪資質外,國內有測繪資質的圖商寥寥無幾。

4. 乘坐人員接納度

現在讓任何人去乘坐一輛沒有方向盤,隨時都無法接管的汽車,心裡多少會有些忐忑。因此人類的接納程度也是自動駕駛普及的一個大難點,需要時間建立信任。

目前,國內外技術廠商都在為 L4 的普及進行著嘗試和努力,雖然在封閉道路或者試驗場地中取得了不錯的成就,但是就近幾日的兩場事故看來,離真正商業化使用還有很長的路要走。

自動駕駛的安全性如何保證?

對於行人和乘客來說,自動駕駛最重要的就是安全性。當計算機技術進入以自動駕駛汽車,聯網醫療設備等為代表的物聯網時代,也標誌了計算機開始在真實世界替人類做出很多至關重要的決策。這個時候,除了以前的編程模式,必須在系統中引入攻擊者模型。換成人話說,就是不能光想好事兒,也得想想壞蛋會對系統幹啥。

早在第一例自動駕駛失控案發生的時候,就有人提出過以問:排除系統自身的失控問題,如果車輛是因為收到了黑客的控制而失控,後果更加不堪設想。

遠程操控無人車,可能嗎?可能。

李嵩在接受採訪時告訴 AI 前線:這個不僅是可能,是已經現實了。2015 年吉普切諾基在高速上被黑客控制,最終停在路邊,就是遠程控制汽車並且自動駕駛的活生生的例子:汽車被遠程控制,聽從控制者的命令,司機的操作完全被忽略。

李嵩說:自動駕駛除了要考慮到車在正常情況下的加速減速制動導航,也得考慮到各種複雜的情況,比如道路障礙:行人,動物,其他車輛,特殊路況如冰雪,路牌缺失等等。容易解決的技術問題是那些我們知道的,不容易解決的技術問題是那些我們不知道的,最困難的問題,是那些我們不知道我們不知道的,比如說攻擊者會對汽車和車載計算機網路進行什麼樣的攻擊?

據了解,目前全球各大車廠都在考慮這些問題,並且在車輛的設計中引入更好的安全機制。計算機安全領域的專家們也加入了這些工作組,在保衛車主和行人的安全。

自動駕駛商業化曙光何在?

現在說起這個問題,或許沒幾個人敢再拍著胸脯保證說:到 XX 年無人車就能安全上路。

前 Uber 自動駕駛組員 Anne Widera 在接受媒體採訪中曾表示:自動駕駛汽車是一種非常依賴地理條件的實體產品,而且這種產品的推出也是一件非常緩慢的事情。

前 Google 經理 David Lu 認為:目前還沒有哪家公司佔據明顯的領先優勢,市場已經證明了這一點,否則其他人也不會入局。從今天算起,直到明年也不可能出現某一個佔據明顯優勢的公司,直到出現某個公司可以在城市中提供像 Uber 或是 Lyft 之類的服務並獲得收益為止。

上面兩位的回答總結起來其實就是一句話:自動駕駛短時間內無法商業化的一個重要原因就是缺少一份通用的行業標準。

李嵩在接受採訪時分析道:自動駕駛不同於人臉識別、語音識別,這些 AI 都是不會對物理世界造成太大影響的,最多也就是把主人鎖在屋子外面而已。無人車失控的損失是非常巨大的,而且很多人認為這不應該是一個概率問題,相反,有呼聲認為應該把無人車放在專用道,就像現在的鐵路一樣。這是一個看起來比較現實,可以平衡各方訴求的方案。

他認為,一旦技術進入實用,特別是會造成人身財產損失的技術,必然會引起法律,道德等等的問題。比如大家討論的比較多的,面對車禍是保全車主還是路人的問題,出了車禍應該罰廠商還是找個程序員祭天的問題等等。從歷史看,技術往往不會等待社會準備好再前進,所以這中間會有各種事情出來。

雖然自動駕駛汽車商業化沒有一定的標準,但是至少在大多數情況下不應該傷及人命是大家的共識了,同時,更低的出錯率、更高的安全標準將會是整個行業未來的發展趨勢。

Uber 已經全面停止了無人車的測試工作。目前來看,自動駕駛顯然還有很長的路要走。

寫在最後

自動駕駛的概念自提出之時就備受矚目,無奈由於技術的限制,這項技術在近幾年才得到快速的發展與進步。

然而技術的進步不能成為盲目宣傳的代名詞。自動駕駛車輛上面的乘客、城市道路上來往的行人,人類才是這項技術真正需要關注和服務的對象,在這個瞬息萬變的時代,我們從不擔心某項技術落地的時間到底是早還是晚,我們最關心的是這項技術能否安全、順利地為人類所用。

引用李嵩在接受採訪時說的一段話作結:

自動駕駛汽車已經是機器人的範疇了。這次 Uber 事件,Uber 的自動駕駛汽車,或者說機器人,違反了阿西莫夫機器人三定律的第一條:「機器人不得傷害人類,或因不作為使人類受到傷害」。

我認為這次事件對於自動駕駛,以及之後的各種機器人發展都會產生深遠的影響。未來已來,阿西莫夫的科幻已經站在我們面前,我們必須面對的事實是:演算法和它控制的機器,已經開始危及普通人了。為了我們人類的安全,我們必須考慮如何掌控演算法,和機器共同的生活在這個世界上。

今日薦文


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 AI前線 的精彩文章:

淺析eBay聯盟營銷的上下文廣告機制

TAG:AI前線 |