當前位置:
首頁 > 最新 > 無人車致命車禍是誰的錯?MIT問了2583個人寫下了這份研究

無人車致命車禍是誰的錯?MIT問了2583個人寫下了這份研究

關鍵時刻,第一時間送達

來源 / 大數據文摘(ID:BigDataDigest)

文 / 晚君、傅一洋、小魚、閆雨瑩、龍牧雪

歡迎下載騰訊新聞客戶端,關注科技頁卡,查看更多科技熱點新聞

讓我們先來做一道選擇題。

司機老王開著一輛帶有自動駕駛系統的車,這時道路前方突然出現了一個行人,可怕的是剎車失靈了。如果及時左轉,老王的車就不會撞人;如果依舊直行,老王的車會將人撞死。

你覺得以下哪種情景,老王要為行人之死負責?

A、老王決定左轉,而自動駕駛系統強制選擇了直行(撞人)

B、老王決定直行(撞人),而自動駕駛系統沒有干預

C、自動駕駛系統決定左轉,而老王強制選擇了直行(撞人)

D、自動駕駛系統決定直行(撞人),而老王沒有干預

A和C選項中,人類和機器駕駛員都進行了錯誤干預。B和D選項中,兩者都沒有進行有效干預(錯過干預)。到底誰的責任更大?

為無人車事故定責不是個簡單的選擇題。

MIT、哈佛、加州大學爾灣分校、法國圖盧茲大學的一個聯合研究小組致力於通過定量研究的手段了解人們在面對無人車事故時的態度,並於最近發布了研究成果。

論文作者來自腦和認知科學、心理學、經濟學等多個不同領域,MIT火爆的無人車課程講師Sydney Levine也是作者之一。

先說MIT聯合研究小組通過向2583個人發放3次調查問卷得出的結論:

進行了錯誤干預的駕駛者是過失方,無論是人還是機器駕駛;

如果人機同時錯過有效干預,輿論對機器更包容,人類司機的疏忽更受關注。

GIF

明確事故定責,是無人車發展的前提

伴隨著一個個無人車路測的消息,我們也看到了一起起事故。

3月18日美國亞利桑那州發生的Uber無人車撞傷行人並致死事故可以理解為「錯過干預」。車禍正式報告還未公布,但據外媒報道,事故發生時車輛已經檢測到車頭前的行人,但決策系統卻「決定」不採取任何閃避措施,同時人類安全駕駛員也未能及時作出反應。

Uber之後,3月23日,特斯拉Autopilot再次成為漩渦中心:一輛開啟了Autopilot的Model X在高速上撞向隔離帶,導致車主不幸喪生,還引發車輛起火和兩車追尾。

對此,特斯拉表示:「司機已收到過幾次警告,包括可視警告和聲音警告。在碰撞發生前的6秒鐘,司機都沒有手握方向盤。事故發生前,司機有大約5秒鐘的時間和150米的無障礙視野,但車輛記錄顯示司機沒有做出任何動作。」同樣,可以理解為「錯過干預」。

歷史總是驚人地相似。

2016年5月,全球首例引起廣泛關注的Autopilot致死事故在佛羅里達發生,一輛特斯拉Model S在使用Autopilot模式行駛途中與一輛正在轉彎的卡車相撞,導致特斯拉車主死亡。

特斯拉解釋說:「在強烈的日照條件下,駕駛員和自動駕駛系統都未能注意到卡車的白色車身,所以沒有及時啟動剎車系統。」

也就是說,在這場事故中,無論是機器駕駛員還是人類駕駛員都應該採取措施(避開正在左轉的卡車),然而他們並沒有採取行動。人類和機器駕駛員的「錯過干預」導致了撞車事故。美國高速公路安全管理局等部門在經過6個月的調查後,認定特斯拉Autopilot系統不存在缺陷。

據世界衛生組織統計,全球每年約有125萬人死於車禍。通常,法律裁決的重點是判定誰是過失方,誰為事故承擔責任。

隨著半自動駕駛和全自動駕駛技術趨於成熟,如何公正判決誰應該承擔責任就成了法官和陪審團的難題,因為事故中的過失和責任將由人類和機器駕駛員共同承擔。

法官和陪審團都是人類。他們會偏袒自己的同胞嗎?還是認為人類因為智力更勝一籌所以應當承擔更多責任?

在2016年的特斯拉Autopilot事故中,公眾明顯偏向於指責事故中疏忽的人類駕駛員,比如有傳聞說車主當時正在看哈利·波特電影(儘管沒有任何證據證實這點)。

輿論對自動駕駛產業有直接的影響。

目前,公眾對混合駕駛模式造成的車禍態度仍不明確,製造商也無法判斷他們的責任範圍,這直接反映在了無人車高昂的定價上,也減緩了無人車普及的速度。如果公眾傾向於將責任歸咎於人類駕駛員而不是機器,這將導致法律體系建設的放緩和監管的缺失,也無法給製造商施加足夠的壓力來提升無人車安全性。

MIT聯合研究小組呼籲,為事故明確定責,是完善監管、促進自動駕駛行業發展的第一步。

GIF

有司機的無人車,司機責任更大?

目前,自動駕駛技術以混合駕駛模式為主。一些自動駕駛系統可以越過司機的許可權執行緊急操作(例如豐田的Guardian Angel)。其他半自動駕駛車輛可以完成大部分駕駛操作,同時要求司機不斷監控情況並隨時準備採取控制措施(例如特斯拉的Autopilot)。

這裡,核心問題是:當一輛半自動駕駛的汽車發生事故並造成人員傷亡時,如何判定人類和機器駕駛員之間的過失和因果責任?

讓我們詳細看看MIT聯合研究小組的結論。

他們研究了6種駕駛模式,分別是單人駕駛模式、單機駕駛模式(全自動駕駛汽車)以及雙駕駛員(兩個人類或兩個機器)的不同組合模式。這些模式分別對應無人車的6個等級,從L0到L5。比較典型的是,L2級的豐田Guardian Angel被歸類為H-M模式,即人類(H)是主駕駛,機器(M)是副駕駛;L3級的特斯拉Autopilot被歸類為M-H模式,即機器是主駕駛,人類是副駕駛。

焦點在於H-M和M-H模式下的兩個場景:

主駕駛做出正確判斷,而副駕駛錯誤干預(「錯誤干預」)

主駕駛做出錯誤判斷,而副駕駛沒有進行干預(「錯過干預」)

研究人員使用了兩個自變數做回歸:駕駛員是否犯錯、駕駛員類型(人或機器)。

在「錯誤干預」場景下,最重要的發現是:駕駛員是否犯錯對評分具有顯著影響,而駕駛員類型對結果的影響並不明顯。可以從下圖左邊看到,做出錯誤干預的副駕駛被認為過失更大,而且副駕駛是藍色(機器)或紅色(人類)的情況下過失及責任分數接近。

也就是說,人們普遍認為,做出錯誤判斷的一方是過失方。如果「錯誤干預」的駕駛操作導致行人死亡,那麼無論做出誤判的是人還是機器,都應當承擔更多責任。

不同駕駛模式的過失及責任評估分數(分數越高責任越大)。藍色代表車輛本身和汽車製造商的疊加責任分數,紅色代表人類司機的責任分數。x軸標籤first driver指主駕駛,last driver指副駕駛。

而有關「錯過干預」的研究結果和此前的結果不同。

此前的研究表明,當機器和人類都做出錯誤的判斷時,機器會受到更多的指責。而且,當人和演算法犯了同樣的錯誤時,人們對演算法失去信任的速度要快於人類本身。

這次的結論是,如果發生「錯過干預」的情況(即人類犯錯機器沒有干預,或者機器犯錯人類沒有干預),機器責任程度明顯小於人類。

在雙駕駛員模式下,人類和機器駕駛員都承擔責任(缺乏有效干預),但是可以明顯看出紅藍兩色的差距。作為對照,如果主駕駛和副駕駛都是人類或者都是機器,他們的責任分數相同(對應上圖右第2行及第7行)。

具體回歸結果可以看這張圖:

GIF

他們本應採取行動,但他們什麼都沒做

儘管人們對無人車的普及可能存在著許多心理上的障礙,但這一結果表明,公眾不會對混合駕駛模式下的事故做出過度反應。儘管在研究中進行了一些系統的簡化,但結果也能反映出一定的公眾言論效應。公眾傾向於將注意力集中在人類駕駛員的極度疏忽上,因此將責任歸咎於人類駕駛員而不是機器。

受訪者也對人類和機器駕駛員的能力分別做了評估,結果相近。在了解事故前,受訪者對人類和機器的駕駛能力同樣有信心。在被告知發生了「錯過干預」的事故後,信心同比例下降。

「錯過干預」情況下,對駕駛員的能力評估

事實上,更應該關心的也許是公眾的反應不足(under-reaction)。

研究人員認為,公眾的反應不足會導致驅動監管法案制定的輿論壓力缺失。如果半自動駕駛汽車的監管法案在有陪審團的法庭上制定,陪審團的裁決會偏向於汽車製造商,使其在人機共同犯錯的案例中免責。這樣的話,就無法給製造商施加足夠的壓力來改善汽車的安全性能設計。

其實,我們之前也經歷過類似的情況。在20世紀60年代之前,汽車製造商將傷害事故責任歸咎於駕駛員的錯誤或疏忽,從而逍遙法外。為此,很有必要通過自上而下的監管,將「事故責任制」的概念引入法律體系,即汽車的設計應儘可能減少發生事故時對乘客造成的傷害。

只有在法律約束下,汽車製造商才能被迫改進他們的設計。然而,安全的標準究竟如何,仍然是一個懸而未決的問題。

研究人員指出,僅僅在一種條件下,公眾有可能產生過度反應,機器受到的責備會大於人類:機器做出了「錯誤干預」。

在這種駕駛模式中,人類並沒有義務去糾正機器犯的錯誤。也就是說,機器的工作是糾正人類可能犯下的錯誤,但如果機器犯了錯誤,人類沒有糾正的義務。(僅在「H-M」模式下如此。「M-H」模式下,當機器發生故障時,糾正故障始終是人類的責任。)

因此,一旦發生由「錯誤干預」造成的事故,可能會引起公眾的廣泛關注。如果我們對此不加以適當的預測和管理,那麼全自動駕駛技術的進程可能會減緩。在研發機器比人類具有更大許可權的汽車時,製造商們應該關注這類極端情況,因為在該情況下,機器比人類更易受到指責。

公眾反應和輿論壓力會影響判決和立法,也會影響個體的決策。

比如,人們可能會選擇「能承擔事故責任和輿論壓力」的駕駛系統。更糟糕的是,人們可能會改變駕駛習慣,盡量讓機器成為過失方(比如說,不去糾正機器的「錯誤干預」)。

畢竟,如果什麼都不做,可以讓機器背鍋。

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 騰訊科技 的精彩文章:

無人駕駛汽車出車禍,到底誰該負責?
美國警察可解鎖所有iPhone 此前對公眾說謊

TAG:騰訊科技 |