當前位置:
首頁 > 最新 > 谷歌:無人駕駛汽車中,人和機器不能同時掌控方向盤

谷歌:無人駕駛汽車中,人和機器不能同時掌控方向盤

自動駕駛:人類和機器共同掌控方向盤?

在無人駕駛汽車領域,傳統的汽車公司大都偏愛漸進變革方式,這些公司認為最好的發展路線是要以一系列循序漸進的階段推進——而不是谷歌式的直接跨越——即汽車搭載的「駕駛員輔助」軟體只是臨時接管駕駛,一旦出現特殊情況就得立即將駕駛權交回人類駕駛員。

自動駕駛汽車

其實,漸進式的演變並不是無人駕駛汽車最好發展路線。很多原因表明,人類和機器人不應該輪流掌握方向盤。理論上看,如果將人與一台智能機器組合,至少應該有一位認真負責、技術嫻熟的駕駛員。畢竟,在自動化過程中由人類決策的優勢,是可能將人和機器的特長發揮到最好。但實際上,只有當各自(人和軟體)的責任界定清晰並保持規範一致的情況下,人類的決策才有可能在無人駕駛汽車上發揮作用。不幸的是,汽車行業人員提出的模型里並沒有在人和軟體之間的責任上作出標準清晰的設定。而他們的建議方案里,在樹立維持人類決策的前提時,給出的責任非但不清晰,而且存在責任轉嫁

漸進式演變策略的核心假設在於,當有突發情況出現時,應該有警示或震動提醒駕駛員需立刻坐回駕駛位以處理情況。這種向全自動化駕駛發展的漸進式前進路線可能看似合理安全,然而事實上,從部分自動化到全自動化的階段式演變路線存在風險。機器與人可以在某些情況下有效合作,但駕駛並不屬於這種情況。駕駛汽車之所以不適合由人類主導,原因之一在於駕駛是單調乏味的。當一件事變得單調乏味時,人們就十分樂意轉交機器執行,所以人們會急切地放棄駕駛責任。


2016年1月20日,京港澳高速河北邯鄲段發生一起追尾事故,一輛特斯拉轎車直接撞上一輛正在作業的道路清掃車,特斯拉轎車當場損壞,司機不幸身亡。經交警認定,在這起追尾事故中特斯拉負主要責任。2018年2月27日,歷時一年多的案件有了新進展,在大量的證據面前,特斯拉不得不承認事故發生時車輛正處於自動駕駛狀態。

自動駕駛事故

而在2009年,法國航空447航班墜入大西洋,葬送了機上228人的性命。事後對飛機上黑匣子分析後發現,墜機的原因在於自動駕駛模式向機組成員轉交控制權的空當中出現了錯誤。在飛行中,飛機的自動駕駛軟體被冰覆蓋住意外關機了。機組成員還跟往常一樣處於睏倦的狀態中,突然被召回來控制飛機。面對突如其來的緊急情況,駕駛員接二連三犯下致命錯誤,最終導致飛機一頭扎進海里。

谷歌公司則將人類對自動駕駛軟體的過度依賴視為「愚蠢的行為」。谷歌公司2015年10月份的月度報告中,對幾年前員工在乘坐早期研發出的無人駕駛汽車出行時的一些行為進行了描述。

2012年秋天,谷歌的幾名員工被授權可以在上班路上經過高速公路路段時,啟動他們研發用的自動駕駛功能。這個方案的預想是由駕駛員開車上高速,並先後把車固定到一條車道後,打開自動駕駛功能。公司最初就提醒每位員工這項技術還屬於早期研發階段,他們需要全程保持對車子和路況的關注。車上還搭載了攝像機以便全程記錄乘客和汽車的狀態。一次實驗過後,員工們對自動駕駛汽車給出了全面的肯定。所有人都在描繪享受到的便利,不用在上下班時間煩悶地困在高速公路上,到家後能精神煥發地與家人共度快樂時光。然而,當工程師團隊回看這些車載錄像時,問題出現了。大部分人的注意力都從方向盤上移開了,他們做著簡單放鬆活動,享受這片刻的自由。有的人甚至完全離開了駕駛員座椅,爬去後排座椅上找手機充電器。

谷歌公司報告中稱已經看到了人類的本性,這也是典型的責任分散,或者工程師將其稱為「自動化偏見」:一旦看到技術有效,人們就會很快地信任技術。結果就是,當人們被鼓勵交出駕駛權去享受放鬆時,他們很難再投入到駕駛任務中了。

谷歌認為無人駕駛汽車的發展過程中是沒有中間地帶的——人和機器不應該共同掌控方向盤,這種觀點看似有風險,但考慮到消費者的人身安全,這又確實是最謹慎明智的發展路線。

自動化會在兩方面削弱駕駛員的能力:首先,誘導駕駛員投入另一件事,比如看書或看視頻,而這會直接將駕駛員的注意力從道路上引開;其次,損害了駕駛員的情境意識,或者說妨礙駕駛員對駕駛環境中關鍵因素進行識別,並做出迅速恰當的反應。兩個因素結合起來,會導致分心的駕駛員完全不知道車外面發生了什麼,這足以清晰地說明在駕駛中責任分散是十分危險的行為。

谷歌無人駕駛汽車,沒有方向盤

讓駕駛員和軟體系統共同掌控方向盤的另一種風險則在於,不經常使用的技能會退化。就像是447號班機的飛行員,如果汽車駕駛員有機會躲在方向盤後休息,他們一定不會放過這個機會。可是,如果駕駛員有好幾個星期不開車,或者幾個月甚至幾年不開車,那麼當在緊急情況下需要他們接手方向盤時,他們不僅不知道車外發生了什麼,駕駛技術也可能早就生疏了。

其他事情的誘導以及人機之間責任分散引發的所謂權力切換問題,都是人機互動模式下存在的嚴重風險,所以谷歌選擇跳過這種漸進式自動化的路線。谷歌在其每月活動報告中發布了有關無人駕駛汽車項目的驚人消息:基於前期在部分自動化駕駛上的試驗探索,公司的計劃以後的戰略只集中於全自動化駕駛技術的實現

到目前為止,谷歌無人汽車總共只發生了17次輕微交通事故以及1次備受關注的與公交車低速碰撞事故。在17次輕微事故中,主要責任人都不是無人駕駛汽車,而是另一方的人類駕駛員。可是,2016年2月14日,谷歌汽車與城市公交車發生了首次備受關注的「接觸」。與先前的17次小碰撞不同,這次事故的責任方是無人駕駛汽車的軟體,它錯誤地以為只要自己向前開動,公交車會停下避讓。經過縝密編程的自動駕駛汽車會嚴格遵守交通規則,而含糊的人類駕駛員則不會那麼一絲不苟地遵守法規,總會有些變通。

在不久的將來,避免碰撞的最好方式就是教導無人駕駛汽車在駕駛時模仿人類的習慣,靈活變通;但是從長遠來看,想要解決人類駕駛員的這些問題,最好的方式就是用耐心的軟體系統替換他們,這樣才能實現駕駛中的全神貫注。


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 一枚小透明 的精彩文章:

自詡最忠誠的果粉,這次竟然輸給了安卓?背後原因值得深思
這家公司又拿到1.2億融資,人工智慧的應用領域遠超你的想像!

TAG:一枚小透明 |