當前位置:
首頁 > 科技 > 現在自動駕駛出車禍,更像是「酒駕」,無關「電車難題」

現在自動駕駛出車禍,更像是「酒駕」,無關「電車難題」

編者按:Uber自動駕駛汽車撞人致死事件發生後,很多人都持有這樣的一個觀點:在將來大規模部署自動駕駛汽車的世界裡,撞人致死的事件將會大幅度減少。因此,要理性看待這次車禍事件,並將其當作是技術發展中必然要付出的代價。從某種意義上來說,這非常像一個電車難題。為了將來拯救更多人,現在殺死少數人是合理嗎?很多人用行動給出了答案。但是,在伊恩 · 博格斯特(IAN BOGOST)看來,Uber的自動駕駛汽車並不能用電車難題來進行解釋,這次事故的發生,更像是一個醉酒駕車的人撞人致死事件。我們應該從更加實際的角度來審視這個問題。文章發表在《大西洋月刊》,由36氪編譯。

關於電車難題,你可能並不陌生:一輛失控的電車正沿著一條軌道向下衝去。軌道前方有五個工人, 如果電車衝過去,他們肯定會被撞死。但你可以用一個操縱桿把電車轉向鄰近的軌道上,但是那個軌道上也有一個工人,如果電車衝過去了,他也同樣會被撞死。你是讓電車變換軌道撞死一個人,還是什麼都不做,讓它撞死五個人?

這是電車難題最著名的版本,一個在20世紀70年代普及開來的哲學思想實驗。它還有其他變體:比如你是否願意把一個胖子從橋上推下來,讓電車停下來,而不是殺死那些較瘦的工人?電車難題除了作為一個哲學實驗外,還被用作心理學實驗中的一種工具——最近,人們已經把它當作衡量自動駕駛汽車的道德標準了。

自動駕駛汽車應該優先保護行人還是先保護乘客?那老人與小孩相比呢?如果汽車可以獲得與車禍發生相關的信息,它是否應該使用這些數據來做出決定?電車難題已經在自動駕駛汽車領域流行起來了。事實上,麻省理工學院的工程師們已經建立了一個名為「道德機器」(Moral Machine)的測試,旨在記錄人們對自動駕駛汽車在各種條件下應如何反應的看法。

但是,用電車難題來理解當前的自動駕駛汽車是存在問題的。它在解決自動駕駛汽車或工人的道德問題上做得非常糟糕。為這些目的部署它,尤其是將其作為工程上或政策制定上的答案或參照,會讓機器道德變得不完整或者更加危險。

哲學家朱迪思·賈維斯·湯姆森(Judith Jarvis Thomson)在1976年創造了「電車難題」。不過,這一設想最早是由另一位哲學家菲利帕?福特(Philippa Foot),在1967年發表的論文《墮胎問題和教條雙重影響》中提出的,他認為,人們的意圖和他們所能預見的東西之間是有區別的。福特以墮胎為例, 外科醫生對一名孕婦進行子宮切除術時,能預見到嬰的兒死亡,他應該這麼做嗎?與此同時,一位外科醫生為了挽救母親的生命而終止了胎兒的生命,應該這樣做嗎?雖然案例非常相似,但最後得出的道德結論卻不盡相同。

福特提出了許多相關的場景, 其中之一就是現在著名的電車難題。 另一種假設是, 一群暴徒威脅說,如果法官不處決一個無辜的人,他們就會報復,殺死更多的人。法官該怎麼辦?這看起來似乎是一個電車難題——在更多或更少的死亡之間做出選擇。 但是,大多數支持電車操縱員撞死一名工人的人,也會對陷害無辜的人感到震驚,福特寫道。

她的結論是, 一個人做什麼和一個人被允許做什麼是有區別的。福特寫道, 特別是「避免傷害和提供援助之間的區別確實非常重要。」

福特的簡短論文為當代讀者提供了一種更細緻入微的方法,來思考涉及自動駕駛汽車的道德場景,而不是只用所謂的電車難題來分析。 在某種程度上,這是因為福特遵循了在亞里士多德之後一種被稱為道德倫理的傳統。

但是,遵循道德規範並不會引發目前大多數關於自動駕駛汽車的爭論。相反,對最終結果是自動駕駛汽車佔主導的社會的關注,是最令人擔憂的。在道德哲學中,這種不同於道德倫理學的方法被稱為結果主義。結果主義者——包括最著名的功利主義者——首先關心的是行為的結果和後果。

這種功利主義思想已經深深植根於自動駕駛汽車的修辭之中。甚至,在自動駕駛汽車的擁護者們開始決定車禍發生時撞誰之前,就已經存在了。推動自動駕駛車輛大規模採用的一個共同理由是,它們能把道路上的安全性大幅度提高。2016年,美國有37000多人死於車禍。由於94%以上的車禍都是由司機的錯誤造成的,用可靠的機器代替容易出錯的人,對於社會來說,顯然具備凈效益。

問題是,把注意力集中在結果上,可能會使人們對自動駕駛汽車的優點和缺點視而不見。 正如福特提出的,工人面對電車難題和法官面對暴徒威脅的道德場景是不同的。因此,同樣的以人為代價的自動駕駛汽車的結果,可能會帶來截然不同的道德、法律和公民後果。

最近, 亞利桑那州坦佩市的一輛Uber的自動駕駛汽車撞死了49歲的伊萊恩 · 赫茨伯格(Elaine Hertzberg)——一個騎著自行車過馬路的行人。 在我寫下關於這場車禍可能產生的法律影響的文章之後, 一些讀者以功利主義的冷笑回應。 畢竟,2015年美國有5376名行人被汽車撞死, 新聞媒體也不會把每一個人都當作特例來報道。 很快, 自動駕駛汽車可以減少或消除行人死亡。 如果你用電車難題的術語來說,軌道代表的是時間而不是空間。一個人死亡仍然是一個悲劇。但如果她的死亡,意味著在預防成千上萬個人死亡方面取得進展,那麼也許這是合理的。

問題在於, 這種立場的假設是,赫茨伯格的死與普通的汽車造成的數千人的死亡完全相同。 從統計學上來說, 這可能是正確的, 但從道德上講, 並不一定如此。

在未來,如果它們能有效地運行,自動駕駛汽車就有可能預防像坦佩市這樣的車禍事故了。感測器和計算機對周圍環境的反應比人類更好,也會表現得更加理性。 隨著Uber這次車禍的細節逐漸浮出水面,一些專家得出結論,這次車禍本來是能夠避免的。此外,Uber的自動駕駛汽車似乎沒有達到公司的目標,即在3月份發生車禍時,每行駛13英里的路程只需要人為干預一次。與此同時,谷歌的兄弟公司Waymo聲稱,它的自動駕駛汽車在不需要人為干預的情況下,平均可以行駛5600英里。

那麼, 在亞利桑那州的道路上,Waymo的自動駕駛汽車和Uber的自動駕駛汽車之間的區別,可能比人操作汽車和計算機操作汽車之間的區別更重要。但是,為了吸引更多的公司到亞利桑那州研究、測試,從而推動就業。亞利桑那州州長道格·杜西(Doug Ducey)允許在沒有重大監管的情況下,讓所有的這類汽車上路測試。

這些條件的存在,決定了不能從電車難題的角度來考慮這個問題。如果要問Uber是否應該撞上赫茨伯格還是突然轉向(讓安全員員面臨危險,避免行人被撞),則需要假定Uber的車輛可以先看到行人並做出相應的響應。需要假定這種能力是可靠和有保證的——相當於一種機械行為,就像切換電車軌道那樣。這種背景,在發生在坦佩市的車禍事故中消失了。

不過,福特已經預料到了在她的案例中背景缺失的情況。「在現實生活中,」她寫道,「很難確定電車轉向後,站在軌道上的那個人會被殺死。 也許他會在車身側面找到一個立足點,並在車輛駛過時緊緊抓住。」解決這種無限可能性的一種方法是運行無限的電車難題,從公眾對這些問題的反應中收集模式。這就是麻省理工學院道德機器的方法,它與機器學習系統工作的最佳方式相匹配:使用大數據集。但還有一種辦法——在最適當的道德背景下考慮具體問題。

碰巧的是, 福特也提出了一個不同的例子, 與電車難題相比,這個例子與坦佩市實際發生的事情有更多的共同點。 想像一下, 在醫院裡有五個病人。 通過使用某種氣體可以挽救他們的生命, 但是使用這種氣體,會向另一個無法移動的病人的房間里釋放致命的煙霧。 在這種情況下, 產生的後與經典的電車難題是相同的。然而,對許多人來說,結果並不那麼明顯。這僅僅是因為預期效果和可預見的效果之間的差別,也是因為避免傷害,導致的道德慾望有著不同的運作方式。

在電車難題中,司機面臨兩種相似的傷害之間的矛盾,沒有其他的選擇。但在醫院的氣體例子中,醫生面臨著提供援助和造成傷害之間的矛盾。事實上,Uber的情況更為棘手,因為所有參與方——不管是汽車製造公司、駕駛它的司機還是監管它的政府——似乎都沒有充分了解車輛目前(而不是未來)造成損害的能力。這使得 Uber這場事故的道德背景不再是關於未來減少車禍,更多的是關於政府監管、公司信息披露和交通政策的現狀的問題。但是,這些話題遠不如一輛失控的電車更吸引人。

如果這是技術專家、公民和政策制定者真正想要的道德哲學的先例。那麼,他們最好把Uber的這場車禍看作是一個關於道德運氣(moral luck)的例子,這是哲學家托馬斯·內格爾( Thomas Nagel )提出的一個觀點。有一個經典的例子:

一個喝醉的人晚上開車回家。雖然喝醉了,但他最後還是毫無意外地到達了目的地。然後想像另一個場景。一個人在同樣的情況下開車的時候, 但他意外撞死了一個過馬路的孩子。

認為後者比前者更應受責備似乎是理所當然的,但兩人都採取了同樣的自願行動。唯一不同的就是結果。

從這個角度來看,Uber帶來的車禍並不代表一種價值中立,更不是所謂的正義:犧牲一個行人,來確保有效部署自動駕駛汽車的世界裡確保更多人的安全。相反,它強調了這樣一個事實,即積極的結果——更安全的汽車、更安全的行人等等——很容易成為自動駕駛汽車的道德運氣的一部分,因為它沒有犯下一個應受譴責的行為。當然,現在不是了。

道德運氣也為自動駕駛汽車開闢了其他的審議途徑。在自動駕駛汽車的情況下,自願行動更難確定。Uber的司機是否知道並理解他們行為的所有後果?假設人類駕駛員可以干預其正在觀察的機器的操作而不是主動操作,這種假設是否合理?在亞利桑那州明確邀請自動駕駛汽車在實際道路上進行實驗性的測試的情況下,Uber是否也應受到譴責?所有這些問題現在都在亞利桑那州和其他地方被問及。 但這對伊萊恩·赫茨伯格來說,只是一種冷漠的安慰。

這一切的意義並不在於指責或讚揚最近Uber車禍中的特定行為者。也不是為了慶祝或哀嘆自動駕駛汽車的未來。相反,這表明,無論是現在還是將來, 解決和應對自動駕駛汽車需要更高的道德修養。

道德不是將簡單的計算應用於任何情況下的問題,也不是將人類對一個模型案例的一整套意見應用於在整個模型下的實例問題。事實上,採取這些立場從一開始就能得出功利主義的結論。當工程師、評論家、記者或普通人,把電車難題當做是一個非常適合(或許是為了方便)思考自動駕駛汽車問題的時候,他們拒絕考慮這些機器操作的更複雜的道德狀況。

對於哲學家來說,思想實驗提供了一種考慮未知結果或重新考慮已接受的結果的方法。但它們只是思考的工具,而不是現成行動的指南。特別是,電車難題的普及,讓人們誤認為自動駕駛汽車是一種已經存在、可靠、同質的技術——這樣就可以提出、甚至回答關於其假想道德行為的抽象問題。但是,想要這種情況發生,還需要等上好幾年。與此同時,公民、政府、汽車製造商和科技公司,必須就自動駕駛汽車在今天和明天可能產生的道德後果,提出更困難、更複雜的問題。是時候在電車把所有人撞死之前踩剎車了。

編譯組出品。編輯:郝鵬程


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 36氪 的精彩文章:

摩根士丹利:比特幣走勢和2000年的互聯網泡沫極為相似
建立精準健康管理矩陣,「健康有益」從健康意識傳播+行為干預入手

TAG:36氪 |