當前位置:
首頁 > 科技 > 無人駕駛首例致死車禍:AI還能被信任嗎?

無人駕駛首例致死車禍:AI還能被信任嗎?

文| 呂夢

微信 | ai_xingqiu

網址 | 51aistar.com

就在Waymo的交通事故發生幾天後,Uber3月18日發生的一起完全自動駕駛汽車致死事故也查明了真相——Uber的無人車感測器已經探測到這位正在橫穿馬路的行人,但自動駕駛軟體沒有在當下採取避讓措施

這是史上首例自動駕駛車輛在公開路面撞傷行人致死的事故,從當時車內監控到的錄像可以看到,司機在事故發生前正低頭,可能是在查看手機,並沒有保持對前方路面的專註,當他意識到事故發生時,已來不及採取措施,最終釀成悲劇。

事故的發生使得一向對自動駕駛技術持謹慎觀望態度的民眾更加焦慮,不是說機器比人類更善於準確測量、不知疲倦,更能規避風險的嗎?機器和人類共享方向盤為什麼沒有達到想要的結果?AI技術是否足夠安全,自動駕駛究竟還能被信任嗎?

為什麼探測到行人,軟體卻沒有採取避讓?

車道上出現或物或人的障礙,是無人駕駛汽車最常需要應對的緊急事件之一。但令人不解的是,這次事故中,Uber在時速30多公里的情況下都沒有及時響應,難免不讓人質疑其技術能力。


Uber無人車檢測到了行人,但選擇不避讓

首先,車頂的激光雷達即使在夜間也能辨認幾米到幾十米範圍內出現的障礙物,並將信息傳遞給「大腦」整理圖像;其次,毫米波雷達也沒有做出單方面決策緊急剎車,甚至直到撞倒行人都沒有決策。

早在事故發生時,路透社就有報道稱,Uber基於沃爾沃XC90車型改裝的自動駕駛測試車大幅消減了用於測試車配備的激光數量,車輛前、後兩側的激光雷達從5個減少到只剩車頂的1個,取而代之的,是Uber將這類測試車型的360°雷達感測器從原來的7個增加到10個。同時,還將攝像頭數量從20個減少到了7個

這個調整導致的結果是,車的利潤提高了,但同時安全性也被降低,使得車輛容易出現掃描盲區,無法完全檢測到行人。

激光雷達最為人詬病的地方就在於昂貴的造價,但它比攝像頭更靠譜的地方是,其反饋給計算機的數據能夠很快被讀取,攝像機則有可能被鏡頭中出現的障礙物,例如石頭、路標所愚弄,甚至光線也會影響其判斷。

自動駕駛領域,Uber是晚到者,但也是激進的追趕者。它跳躍式的追趕步伐業界有目共睹。

2015年,Uber從卡耐基梅隆大學機器人研究所挖走了50多名工程師,並收購了地圖行業創業公司deCarta;之後,又以30億美元的高價再次收購諾基亞的地圖產品Here;緊接著,重金買下微軟旗下的必應地圖。2016年,Uber花費6.8億美元收購無人駕駛創業公司Otto。

很快,2016年5月,Uber官方就公開了無人駕駛汽車的測試照片。同年9月,經過18個月的測試,Uber在匹茲堡投放了第一批自動駕駛車輛試運營,儘管每輛車上都有兩名員工跟隨,但這一做法還是引發了爭議。

2016年12月,Uber自動駕駛計程車在舊金山試運營,因加速闖紅燈被加州車管所登記。隨後,Uber將車輛和整個測試計劃轉移到政策更寬鬆的亞利桑那州。

要知道,即使在對自動駕駛測試申請最開放的加州,也要求經過測試,繳納保險金後才能獲得牌照,但在亞利桑那,無需特殊許可,只要進行標準車輛登記,無人車就可以上路了。

2017年2月22日,Uber開始正式在亞利桑那州坦佩市使用沃爾沃XC90 SUV運營無人駕駛專車服務。

五年來,Uber不斷燒錢擴張,但結果卻事與願違,不僅海外市場屢次碰壁,美國國內的市場份額也不斷下滑。為了擺脫高昂的人力成本,Uber的無人駕駛從一開始就朝著速度狂奔而去,忽視了安全問題。結果,在亞利桑那州上路不到一年,Uber自動駕駛就因各種交通事故被接二連三曝光。

根據數據顯示,Uber的無人駕駛車輛在測試的過程中,每行駛1英里(1.6千米)就需要駕駛員接管一次,而Waymo平均5128英里(約8253千米)才需接管一次。雖然測試地點和方法有所區別,但相比Waymo的謹慎穩健,Uber對於整套技術流程不夠嚴密把控的態度似乎更令人心寒。

如果人類駕駛員是軟體失靈後的第二重保障,為什麼依然失效了?

理論上,將具有決策能力、經驗豐富的司機和一台擅長偵測規律、精準測量的智能機器放在一起,是最佳組合。這也是當前許多自動駕駛團隊所採用的循序漸進的發展路徑之一:自動駕駛軟體負責臨時接管,一旦遇到突髮狀況,系統將立即提醒駕駛員回到座位做緊急處理

但無論是試驗探索還是路面實操,人類干預似乎都沒有達到預期的效果。

不同於循序漸進的階段推進,谷歌的Waymo在自動駕駛技術方案上堅持一步到位,倡導「直接跨越」,他們甚至將人類對自動駕駛軟體的過度依賴視為「愚蠢的行為」。

谷歌不是空說無憑。早在其2015年10月公開的一份月度報告中,就能看到谷歌員工在被授權經過高速路段可以啟動自動駕駛功能後的行為。

由於當時的系統還處於早期研發階段,谷歌還特意提醒員工,要時刻保持對車子和路況的關注。但從回放的錄像來看,「大部分人的注意力都從方向盤上移開了,他們做著簡單放鬆活動,享受這片刻的自由。有的人甚至完全離開了駕駛員座椅,爬去後排座椅上找手機充電器」。

同樣的情況還發生在特斯拉身上。2016年5月,一名美國佛羅里達州的Model S車主在使用特斯拉「Autopilot」模式時發生事故,導致汽車撞向卡車,車主不幸身亡。

當時,特斯拉就對此次事故發表意見:Autopilot功能與飛機的自動巡航類似,可以在條件合適的情況下使用。但是,「司機仍然要對汽車負責,也是汽車的最終控制者」。

2017年10月31日,谷歌旗下無人駕駛汽車部門Waymo CEO John Krafcik對外宣布,公司將放棄開發輔助駕駛技術,「我們發現這樣做後果很嚴重。因為駕駛員會喪失情境感知能力,很難接管汽車」。

這也是谷歌為什麼堅持避開自動化路線的原因,它有可能導致駕駛員的注意力從道路上轉移,當他的注意力完全遊離時,就無法再對駕駛中的關鍵信息做出迅速反應了。

因而,在Waymo Chrysler Pacifica汽車內,乘客只有兩種選擇:按下按鈕,開始旅程;按下按鈕,讓汽車靠邊停車。

十年磨一劍,谷歌謹慎的態度和常年研發投入,的確為自己換來了無人駕駛技術領跑者的地位以及還不錯的安全成績。

從2009年啟動無人駕駛計划到今天,Waymo已經捲入30起小型撞車事故,但只有一起事故的肇事方是Waymo。此外,上周在美國亞利桑那州錢德勒市發生的一起交通事故經查明,Waymo也非事故肇事方。

技術往往會讓人陷入惰性。根據通用汽車和美國聯邦公路管理局對12名測試者展開的一項研究顯示,在近3個小時的技術輔助駕駛測試中,人們會不自覺地打電話、發郵件甚至到后座拿東西,33%的注意力都不在道路上。而在實際路況中,任何一丁點的疏忽,都可能在極端情況下釀成苦果。

但直到今天,究竟人與軟體共享方向盤的漸進式路線更靠譜,還是無人駕駛自動化一步到位更安全,都沒有勝負定論。我們唯一能夠確定的是,人類始終無法在交通技術的革新中規避風險,只能儘可能降低危險係數。

危險時保護車主,還是保護行人?

無人駕駛汽車上路或許引發的將不只是法律適用的問題,當我們把判斷權轉移給計算機系統,就會牽涉到不少道德和倫理困境。

美國《Science》雜誌此前做過一個無人駕駛汽車道德困境的社會調查,結果顯示,受訪者認為,無人駕駛汽車車主應該選擇最小化對他人的傷害,即使會致使自己受傷。但當問及會選擇購買「車主保護優先」還是「行人保護優先」的無人駕駛汽車,受訪者更傾向於購買「車主保護優先」的。

這是早已存在的由哲學家菲利帕·福特(Philippa Foot)提出的「電車悖論」。一輛失控的電車可以通過拉拉杆做出一個選擇,要麼沖向5個人的軌道,要麼沖向1個人的軌道。這種情況下,該如何選擇?

《玻璃籠子》的作者尼古拉斯·卡爾(Nicholas Carr)就曾在書中質疑,「當無人駕駛發生事故並造成人員傷亡時,應該怎樣定罪及誰來承擔責任?由車主承擔,由安裝自駕系統的汽車製造商承擔,還是由編寫軟體的程序員承擔?只有解決了這些棘手的問題,全自動汽車才能進入經銷商的展廳」。

2017年8月底,德國交通運輸與數字基礎建設部下屬的道德委員會公布了一套被稱為世界上首部的自動駕駛道德準則——或許可以作為這個問題的參考。

這套由科學家和法律專家共同提出的15條自駕系統的駕駛決策道德準則的核心原則是:生命應該始終優先於財產或動物。其中明確,人類生命一定是首要任務,在事故無可避免的情況下,人的生命要比其他動物、建物都還重要

也就是說,引導汽車的智能軟體在必要時會對人類和動物的生命價值進行量化比較,以便於無人駕駛汽車在應對將要發生的事故時做出恰當的反應。

但是,規範中也提到,自駕系統不得以任何年齡、性別、種族、是否殘疾等條件,作為「犧牲」和「獲救」的判斷選擇標準——因為人類的生命都是平等的。但也正因為「平等」,自動駕駛系統的選擇難度似乎就更大了。

對此,谷歌自動駕駛負責人在2015年時就表示,危機情況下,谷歌無法決定誰是更好的人,但會努力保護最脆弱的人。

美國初創無人駕駛公司NuTonomy的首席執行官卡爾·艾格尼瑪(Karl Iagnemma)的觀點很實際,「無人駕駛汽車的掃描手段無法區分路人的年齡或汽車中的乘客數目。所以即使人們想給無人駕駛汽車增添道德模塊,目前的技術能力也還達不到」。

目前,工程師只能給汽車編程使其能夠做出簡易的道德行為,比如在檢測到前方有自行車之後會減速行駛。

對不同人的生命做出排序是一個無法避免的問題。不同於我們所談論的「電車悖論」需要人在緊急情況下有所作為,無人駕駛的行為一開始就被工程師設置的指令所決定了,比如安全氣囊,這種技術的本質就是,以少數人的生命來人換取多數人的存活。

當然,為了獲得整個社會和法律的認可,無人駕駛汽車還需要一套透明的可靠性保准,通過製造企業和政府合作,共同制定一個定義明確的公共標準——無人駕駛汽車的平均故障間隔距離應該達到多少才是可接受的。

根據弗吉尼亞理工大學交通研究所的數據,人類駕駛車輛每行駛百萬英里會發生4.2次事故。按照這個來計算,行駛超過500萬英里約發生21次撞車事故,與Waymo的無人駕駛汽車記錄相當。

根據胡迪·利普森(Hod Lipson)在《無人駕駛》中的表述,一輛無人駕駛汽車如果無事故行駛的里程數兩倍於人類的水平,則可以宣稱「人類安全係數2.0」。一輛無人駕駛汽車的安全程度如果3.5倍於人類駕駛汽車,則可成為「人類安全係數3.5」;以此類推。

作者解釋道,在所有運輸系統中,具有最高級別平均故障間隔時間的運輸系統之一就是民航飛機。平均而言,每200萬次的飛行才會出現一次致命的系統故障(不考慮飛行員失誤、惡意破壞、恐怖主義和其他外部因素,事實上80%以上的飛行事故是由哪些因素導致的)。

為此,利普森認為,為了提高安全性,無人駕駛汽車可以從民航飛機當中借鑒的經驗是:

1. 有一套合理而透明的機制來權衡並量化機器人駕駛的能力;

2. 操作系統設計的優化;

3. 建立故障防護系統,即出現緊急情況下系統之間可以互相檢測故障,如果多個子系統「產生分歧」,會通過投票的方式來解決僵局。

不過與人類駕駛的汽車相比,自動駕駛汽車給行人、自行車騎手或者其它汽車帶來的風險並不見得更大。美國交通部就表示,94%的致命事故都是人為失誤造成的,但公眾一直告訴民調機構,他們對無人駕駛汽車心存警惕。在接受調查的美國人中,有56%的人表示,他們甚至不願意乘坐無人駕駛汽車。

然而事實卻是,沒有任何一種交通工具具備完美的可靠性。自動駕駛汽車技術的優勢之一就在於,它能以冪次方的效率快速學習過去的行駛資料庫,其解決複雜的狀況能力也會在過程中不斷提升。

事故發生後,Uber發表聲明稱,「已經開始對我們的無人駕駛車輛計划進行全面的安全審查,我們聘請了前NTSB主席克里斯多弗·哈特(Christopher Hart)為我們提供打造全面安全文化的建議,我們的審查從系統安全到車輛操作員的培訓過程」。

此後一周,英偉達也停止其在全球的無人駕駛汽車路測工作。並表示,「這起事故是一場悲劇。它提醒人,開發無人駕駛汽車技術是多麼困難,需要極端謹慎和最好的安全技術。這場悲劇是我們致力於完善這一拯救生命的技術的原因」。

而作為普通民眾,我們不希望等到事故之後,才開始全方位的安全審查。

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 AI星球 的精彩文章:

智能手機也可以測謊了,人性是否能經受機器考驗?
滴滴自動駕駛怎麼玩?

TAG:AI星球 |