當前位置:
首頁 > 新聞 > 自動駕駛「電車難題」待解決,一個百萬人參與能夠提供什麼參考?

自動駕駛「電車難題」待解決,一個百萬人參與能夠提供什麼參考?

人工智慧的發展已經不可阻擋,自動駕駛成為現實的一天也離我們越來越近。但在那之前,除了還有技術上的障礙需要克服,我們在享受自動駕駛帶來的便利前,可能還須先解決一個也許比技術問題更難解決的倫理問題:自動駕駛領域的「電車難題」。

交通事故的發生一直以來都是一個概率事件。在方向盤掌握在人類手中的時候,當事故發生時,駕駛員作出的決策是基於現場的狀況、過往的駕駛經驗,還有很大一部分是瞬間發生的本能反應,同時,人類駕駛員也將為其決策承擔可能的社會和法律責任。

但在依賴程序做決策的自動駕駛領域,我們需事先就教會程序如何進行選擇,這時我們就不得不事先作出選擇:當事故無法避免時,誰的安全應該放在首位?這背後的原因又該如何解釋?

10 月 24 日,一篇來自麻省理工學院的論文,探討了全世界不同地區和文化的人們對這個倫理問題的看法。該論文整理了 2016 年一個叫做「道德機器」(Moral Machine)的在線測試的數據。該測試要求用戶回答關於車禍發生時的一系列道德問題。類似於此前著名的「電車難題」:你是選擇讓失控的電車撞上鐵軌上的 5 個人,還是拉動拉杆,讓電車換到側軌撞死 1 個無辜的路人?

「道德機器」對 9 個不同的影響因素進行了測試,例如,車禍發生時是選擇撞男性還是女性?撞多數人還是少數人?年輕人還是老年人?守規則的行人還是亂穿馬路的人?甚至是選擇社會地位高的人還是社會地位低的人?

來自 233 個國家和地區的數百萬用戶參與了這項道德測試,在最後收回的約 4000 萬個答案中,研究人員發現了一些全球一致的傾向,例如:當發生事故時,所有人都一致的表現出更偏向救人類而非動物、救更多的人、救兒童而非成年人。

(來源:麻省理工科技評論)

該項調查的研究人員認為,這份調查中涉及的一些因素可為政府在給自動駕駛汽車制定法律時提供參考。但同時,論文作者之一 Edmond Awad 也表示他們的研究僅是了解公眾在這個倫理問題面前會作何選擇,若要從規範倫理學的角度來思考這個問題怎麼解決,那得交給專家。

「道德機器」得到的結果還顯示:不同國家的道德偏好存在著顯著差異。導致這些差異的原因與很多因素有關,包括地理因素,如歐洲和亞洲國家之間存在差異;文化因素,比如個人主義文化和集體主義文化間的差異。

加州理工大學倫理學主任 Patrick Lin 表示,「自動駕駛汽車將是第一個大規模融入社會的 AI 技術,將會給其他 AI 技術和機器人技術的應用定下基調,因此這個倫理問題尤其需要理性的討論。」


文化差異如何影響道德選擇?

「道德機器」統計結果表明在不同文化下的的人們在部分選擇上有一致的傾向,但儘管傾向一致,不同的文化背景可能會造成傾向程度的差異。

比如,研究人員發現,在東亞和中東地區,例如中國、日本和沙烏地阿拉伯的人們在選擇救年輕人還是老年人這個問題上,傾向於保護年輕人的比例相對較低。並且這些亞洲國家相對於歐美國家來說,對救高收入人群的偏好要少一些。研究人員認為這之間的差異可能是源於個人主義和集體主義之間的文化差異。個人主義更強調個體的價值,而相比之下,集體主義對年輕人偏好較弱,也更多體現出對老年人的尊重。

圖|相比之下,亞洲國家和地區更偏向於保護老年人 (來源:麻省理工科技評論)

研究還發現,在地理和文化上相近的人們在自動駕駛倫理問題上的意見也更相近。但有些與地理位置無關的因素也會影響人們的道德選擇。如 GDP 較低的國家,人們在選擇救守規則行人還是不守規則的行人這個問題上,沒有表現出太大的傾向性。這也反映出這些國家可能規則意識較弱,違反規則的處罰也較輕。

值得注意的是,設計「道德機器」的作者強調,這些數據無法明確地得出不同國家和地區人們在這類問題上的道德偏好。因為能夠參與到測試的人們是需要具備上網能力的,所以這些參與者的代表性可能不足。此外,用戶在測試中僅有兩個簡單的選項:「撞這群人」還是「撞那群人」。但在現實生活中,發生事故的概率和嚴重性都不同,道德選擇也會根據具體的情況而定。

圖|在傾向於保護行人還是乘客安全問題上,中國明顯的體現出保護車內乘客的傾向(來源:麻省理工科技評論)

儘管如此,專家們表示,這類測試還是有價值的。這些道德困境的設計能夠避免其他變數的干擾而專註於單一的特定變數,引起我們的思考。Patrick Lin 表示,即使汽車不會經常在撞 A 還是要撞 B 之間進行選擇,但它們仍然需要在其他問題上進行權衡,比如在面對不同類的人時,留多大的安全距離才算合適?這個問題歸根結底也是倫理問題,所以我們現在就需要思考這些尖銳的倫理難題。

法律條文能否解決這類倫理問題?

那麼立法者何時會將自動駕駛的倫理道德規範寫入法律法規?自動駕駛汽車公司什麼時候才能將它們寫入程序呢?

其實第二個問題早有答案,科技公司在演算法寫入時就已有了大致的偏好,但其中一部分決定可能會產生倫理爭議,因此他們並不樂意公開討論這類敏感話題。

例如,早在 2014 年,Google X 創始人 Sebastian Thrun 曾表示,他們的自動駕駛汽車在發生碰撞需要二選一時,會選擇撞擊體積更小的一方。Sebastian Thrun 還曾表示,谷歌的自動駕駛汽車會儘可能保護行人和騎行者,因為他們的保護措施更少。同在 2014 年,一名來自梅賽德斯賓士的管理人員曾表示,他們的自動駕駛汽車在事故中會把駕駛員和乘客的安全放在首位,但隨後又否認了這個說法。

這些企業對自動駕駛倫理問題的模糊態度是可以理解的,因為一方面,他們的技術還遠未成熟到能夠精準分辨年輕人和老年人;另一方面,他們在表示偏向保護一部分人的時,總會得罪另一部分人。這也正是自動駕駛倫理困境的複雜之處。

(來源:MORAL MACHINE)

歐洲政策研究中心的高級研究員 Andrea Renda 表示,目前私營企業在這些倫理問題上做的工作最多,但這還不夠,歐盟正在制定相關的道德準則,未來或將通過立法來實施。而在美國,國會已經公布了一些監管原則,但還未進入到立法程序。

Andrea Renda 警告道,僅靠政府制定相關法律是很危險的,公眾需要儘可能地參與到關於自動駕駛汽車倫理選擇的問題辯論中,政府和專家在做決定時也需要再三考慮人權因素。

德國是迄今為止唯一一個在自動駕駛汽車倫理選擇上給出官方指導意見的國家。德國立法者表示所有人的生命都應該被平等地重視,並且應該禁止根據性別、年齡等因素來做選擇。

然而,「道德機器」的研究團隊認為,如果在自動駕駛汽車倫理選擇這個問題上沒有傾向性,那也就意味著程序作出的決策會違背大眾的意願。比如就公眾更傾向於救年輕人而不是老年人這個選擇上,如果車禍造成了兒童遇難,那麼政府又將如何應對來自民眾的輿論壓力呢?

Andrea Renda 認為,在討論自動駕駛的道德倫理問題時,衝突是不可避免的,這是得出最終結果的必經之路。

可以確定的是,一個「黑箱」的結果是難以被大眾接受的,程序在車禍發生時的決策過程應向公眾開放,更重要是,每個人都應參與進來,為這個與我們每個人性命攸關的決策投出自己的一票。

所幸的是,自動駕駛技術目前還處於起步階段,到真正的普及還有很長的路要走,這給政府和公眾留下較為充足的時間來對這一道德問題進行探討和辯論。


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 DeepTech深科技 的精彩文章:

維生素 D 防治骨質疏鬆、骨折受質疑!《柳葉刀》子刊發布研究
黎曼猜想未被完全證明!英國數學「教父」剛剛公開證明過程

TAG:DeepTech深科技 |