史上規模最大的無人車道德研究:人們更傾向犧牲乘客而非行人
林鱗 編譯自 Forbes
量子位 出品 | 公眾號 QbitAI
今天的故事發生在麻省理工大學(MIT)Media Lab,一項有史以來規模最大的無人車道德研究首次透露成果。
而調查內容正是無人車無法繞過的「電車難題」。該不該犧牲一人而拯救五人,這是個大問題。
電車難題:你是否會拉下操縱桿,讓電車轉向另一條軌道?
2016年,MIT的研究人員推出了一個叫「道德機器」的博弈測試,涉及不同性別、年齡、甚至物種等在過馬路時的「電車難題」問題。400萬名志願者必須根據多種場景下做出選擇,是犧牲車上的乘客還是過路的行人?是犧牲老年人,還是年輕人?
應該直行還是轉向?道德機器中越來越複雜的道德困境
不同困境
在下面兩種情況下,你希望無人車將直行還是轉向?
MIT教授Iyad Rahwan團隊發現,在情況比較簡單時,比如在保護成人還是兒童的問題上,結果非常明確——絕大多數人更傾向挽救兒童的生命。
穿越道路的行人年齡越大,相較之下挽救他們的人就越少。
再來看另外一種情況,在這兩種情況下,你希望無人車直行還是轉向?
直行,意味著犧牲車上的乘客;轉彎,意味著犧牲人行道上行走的路人。
結果顯示,61%的投票者傾向直行,只有39%的人願意轉彎犧牲乘客。
類似的問題還有很多,場景越是複雜,被調查者就越糾結。
在選擇犧牲一個不違規過馬路的行人,或者犧牲兩個違規過馬路的行人時,投票結果相對均勻。
通用機器倫理?
更有趣的是,研究人員發現,國家和地區不同,選擇結果差異也很大。
當賓士一方曾表示「賓士汽車以保護車裡乘客的安全為重」時,也著實引發了一場言語風波。
Rahwan表示,由於每個人的道德標準不一,誰對誰錯自然難以分清。這似乎證明了符合阿西莫夫小說中的通用機器倫理不存在。
對了,如果感興趣,你也可以來參加這項測試。科學移步「道德機器」項目官網,你也能親自感受一下無人車設計中的道德難題,還可以選擇中文版~
地址給你:
http://moralmachine.mit.edu/hl/zh
作者系網易新聞·網易號「各有態度」簽約作者
—完—
加入社群
量子位AI社群15群開始招募啦,歡迎對AI感興趣的同學,加小助手微信qbitbot6入群;
此外,量子位專業細分群(自動駕駛、CV、NLP、機器學習等)正在招募,面向正在從事相關領域的工程師及研究人員。
進群請加小助手微信號qbitbot6,並務必備註相應群的關鍵詞~通過審核後我們將邀請進群。(專業群審核較嚴,敬請諒解)
誠摯招聘
量子位正在招募編輯/記者,工作地點在北京中關村。期待有才氣、有熱情的同學加入我們!相關細節,請在量子位公眾號(QbitAI)對話界面,回復「招聘」兩個字。
TAG:量子位 |