撞人還是撞自己?我們該如何面對這種道德困境?
雷鋒網按:2016年,麻省理工大學媒體實驗室的研究人員推出了一款名為「道德機器」的產品,這是一個致力於採集人類對於未來機器智能可能會遇見的各種道德難題的意見平台。它以遊戲的形式,讓玩家扮演旁觀者的角色,在兩個選項中做出抉擇,選出最能接受的一項。隨著時間的積累,這款遊戲越來越現實出其價值。
試想一下以下這種情況:
一輛自動駕駛汽車如果往前繼續開會對撞到行人,但是如果變道可能就會置車內的乘客於危險之中。這種困境甚至會上升到危機生命的程度,這個時候,機器該怎麼抉擇?
這些生死抉擇可不是鬧著玩的的,尤其這些決擇都留給了自動駕駛汽車的時候。
在過去的一年中,有400萬人參與回答了「道德機器」的許多場景中的道德問題 ,這些問題包括不同性別、年齡的行人,甚至還有其他物種,如貓和狗等橫穿馬路的組合場景。
在Uber測試車致死事件發生前一天,美國麻省理工大學的Iyad Rahwan教授,在迪拜舉辦的全球教育和技能論壇上公布了「道德機器」研究的首批成果。
結果出爐
Rahwan在論壇上表示,他的「道德機器」研究,是目前世界上規模最大的全球性倫理道德研究。
這一研究的結果將會在今年晚些時候公布。他的團隊認為,汽車製造商和技術巨頭可以使用他們的研究結果,從而更好地為他們的自動駕駛車輛,提供道德選擇建議。
結果非常明確。Rahwan的研究小組發現,當涉及到「簡單」選擇時 , 比如打小孩還是打成人, 人們的選擇都很果斷,絕大多數人都贊成保護小朋友。
一個悲傷的事實是,過馬路的行人年紀越大,就越不被重視。
但在行人和乘客之間的選擇上,結果就有點灰暗了。大約有40%的人選擇了讓車沖向行人保護自己。
在更複雜的情況下,人們就更加猶豫不決。
對於選擇撞向一個合法過馬路的人,還是撞向兩個非法過馬路的人這一問題,選擇兩種情況的人比例相當。
想要總結出全球共同的道德價值觀的困境是極其困難的,因此,「道德機器」的結果也分為不同的國家和地區。
製造道德機器
Rahwan說:「當我們將德國的結果與世界其他地區的結果進行對比,或者進行東西方對比時,我們發現了其中非常有趣的文化差異。」
例如,在德國,豪華汽車製造商梅賽德斯·賓士的一位高管曾表示,梅賽德斯的汽車應該將車內乘客的安全放在第一位,這翻言論成了當地輿論的焦點。因此,在這類問題上,德國的參與者們往往比歐洲其他地區的人更果斷,因為這些問題很顯然已經經過了全國性的討論。
「這些問題真正想要強調的是我們考量側重點的不同,我們的不同的價值觀也會相互衝突,這對我們的道德標準也確實產生了挑戰,這樣的情形逼迫我們必須一起解決這些問題,因為我們有所分歧。 」
他補充說,這些結果證明,我們沒法創造像科幻小說作家Isaac Asimov所說的「機器人三定律」這樣的通用機器倫理:
「如果我們想讓機器反應出我們的價值觀,我們就得對我們的價值觀有更深入的了解,我們需要量化這些價值觀,並討論出誰輕誰重。」
Uber自動駕駛測試車致死事件後,人們愈加相信,自動駕駛汽車能夠,並將繼續造成人們的死亡(儘管它們比起人類駕駛員它們有希望降低死亡的人數),因此,現在是時候開始思考這些機器應該做什麼道德和倫理判斷了。
PS:6項雷鋒網新智駕會員專享特權,全年100期精華內容,帶你深入淺出看懂自動駕駛。歡迎點擊鏈接,加入雷鋒網新智駕會員計劃 :https://www.leiphone.com/aidrive/vip或掃描海報下方二維碼了解詳情
※特朗普終結「半導體史詩收購」,高通、博通未來走向何方?
※SF MOTORS 要為「造車新勢力」正名|青主談
TAG:雷鋒網 |