當前位置:
首頁 > 知識 > 若把性命託付給人工智慧,它應該遵守人類的道德嗎?

若把性命託付給人工智慧,它應該遵守人類的道德嗎?

?

編者按:如果一輛電車沿著軌道駛來,眼看著就要撞死五個人。這時,你可以把一個陌生人推下橋,擋住電車,救那五個人,但被你推下去的那個人會死。這時候你會怎麼選?

歡迎到文末投票,並在留言中探討。

演算法和人不一樣,它們不會珍視人的生命。在德國奧斯納布呂克大學認知科學研究所,虛擬現實已經成為機器道德的訓練場。認知科學博士生利昂·祖特費爾德(Leon René Sütfeld)研究人類在開車時,對危險和障礙物的反應,然後利用這些數據,訓練和評估演算法的決策模型。

我們需要有道德感的機器,這種需求可能是我們這個時代的關鍵問題之一。

創造演算法的目的是為了管理人類社會的重要系統,比如金融和醫療,但如果沒有對與錯的概念,機器就無法明白其行為的後果。機器永遠不會打架鬥毆、考試作弊或是在感情中出軌,也永遠不會沉浸於那種為化妝品和製藥行業貢獻了無數財富的自我懷疑。

簡而言之,有道德感的機器也永遠只會是「物」而不是「人」,但如何讓這個「物」不止是「物」呢?

一場「殘忍」的測試

在祖特費爾德的研究中,105位受試者獲得了一輛虛擬汽車的控制權,該犧牲哪些人?又該拯救哪些人?他們被要求做出選擇。就好像還不夠殘忍似的,他們還必須在有限的時間內做出選擇。

測試的目的不僅是為了檢驗我們如何評估人的生命,也是為了檢驗我們在危急情況下會如何抉擇。問問你自己:一個男人和一個女人擋在路上,你會撞誰?一隻鹿和一隻兔子呢?

受試者戴上虛擬現實頭顯,發現自己正在駕駛一輛虛擬汽車,在一條普通的郊區公路上行駛。看似普通,卻有一個特別之處:前方始終被霧籠罩。在沒有任何預兆的情況下,包括兒童和鹿在內的障礙物會從霧中出現,每次只擋住一條車道。雖然司機可以變道,但隨著時間的流逝,發生碰撞的可能性越來越大。

最終,兩個障礙物(活物或者死物)同時擋在兩條車道上,迫使受試者必須在1秒或4秒時間內,下意識地決定救誰和撞誰。無論如何選擇,在碰撞的那一刻,屏幕都會變黑,意味著實驗結束。這聽起來如同電子遊戲,但祖特費爾德就是依靠這樣的基本模型,來區分你的肩膀上站著的是天使還是魔鬼。

「到目前為止,還沒有一種道德模型能夠重現我們認知過程的複雜與微妙。」祖特費爾德說,「但如果把模型的範圍局限於少數具體場景,更簡單的模型也許可以適當地模擬出人類的道德行為。」

祖特費爾德的訓練模型只有一個場景。因此,它利用單一維度的生命價值模型來區分障礙物。在這個模型中,每個可能出現的障礙物都用一個數字來代表其價值。

比如,兒童的價值高於老人,因為老人的壽命已經所剩不多(這樣的比較確實比較殘忍)。每個出現在視線中的人或物,都會被賦予一個數值,而預測性演算法會以此為基準,偏向那些數值高的選擇。

「如此一來,它為我們提供了一種用數字表示的總體均值,也就是平均來看,我們認為每個障礙物的價值有多大。」祖特費爾德說,「單單這一點,就非常有助於做出決定。例如,我們可能會發現,人們認為鹿的價值比羊高,如果救羊的唯一方法是撞鹿,那麼汽車寧願撞羊。但如果把其他潛在因素考慮在內,結局可能改變。也許我們認為鹿的價值只比羊高一點點,但如果羊不是處於我們所在的車道,為了救鹿而變道去撞羊的話,我們也會感到心中有愧。」

制定一套道德標準並灌輸進機器的思維,這會帶來一個無法避免的問題:我們是否信任自己制定的標準?

自動駕駛汽車不僅需要在生死攸關時做出決定,還需要在任何特定時刻判斷,多大的風險是可以接受的。但誰來約束這種決策過程呢?判斷哪些情況下可以撞向騎自行車的人,這是工程師的職責嗎?你不會因為自己救了鹿而撞了羊,就因此失眠,但如果你撞的是一個人呢?

根據一個數字來決定誰生誰死,這無疑充滿了反烏托邦的意味。你也許看到了街道的急轉彎,聽到了迎面而來的車流聲,但演算法只是把整個世界看成一個個數字。這些數字將形成演算法的記憶和推斷,正是這股力量引領著自動駕駛汽車在道路上行駛。

「我想,由機器來決定生與死,這會使人們感到非常不安。」祖特費爾德說,「在這方面,我們認為,要讓公眾接受這些系統,透明度和可理解性十分重要。換句話講,人們可能更喜歡透明和易於理解的系統,而不是更加複雜的黑盒子系統。我們希望,人們能理解給機器灌輸道德標準的必要性,著重討論採取何種方法,以及這樣的系統應該如何做出決定。若是這些都做到了,每輛汽車都將做出同樣的決定,如果模型有一個良好的共同基礎,就可以改善公共安全。」

祖特費爾德的實驗反映出,要找到虛擬主體的「共同道德基礎」,實非易事。媒體和社交網路上有著太多的政治和社會分歧,「共同道德基礎」的想法就好似在深深的沙子中行走——如果你腳下的地面突然塌陷,請不要感到驚訝。

在只有一秒反應時間的測試場景中,作為障礙物的一名女性常常被撞,儘管模型顯示她的生命價值更高。這種判斷上的錯誤,僅僅是在實驗中常常出現,但並沒有實質性地傷害到某個人。但在現實中,如果你犯了這樣的錯誤,那可不是撞了一堆像素那麼簡單。

在四秒反應時間的場景中,這些錯誤基本消失,但取而代之的是「不作為」現象。被迫在兩個障礙物之間作出選擇時,受試者留在原車道的傾向變得強烈了許多。雖然有了更多時間去思考,但他們在最大程度減少生命損失方面,反而做得更少,更多的是想推卸責任。他們留在原車道,根本不去選擇。

向這樣的角色模型學習時,演算法應不應該複製人類的道德?或者,如果演算法能夠克服人類的道德缺陷,它是否應該擯棄這些缺陷?

人類是好的道德榜樣嗎?

對演算法進行訓練的過程,就是研究重複性和多數人思想的過程。但一遍又一遍做同樣的事,得到同樣的結果,這更符合愛因斯坦對於瘋狂的定義,而不是對美好的追求。

人類有能力學習,有能力培養道德。但演算法只能以數字形式演變。」劍橋大學生存風險研究中心的倫理學家西蒙·比爾德(Simon Beard)說,「我總是在想,如果我們可以把人工智慧(AI)做得更好,我們為什麼不努力做得更好呢?或者,我們為什麼不問問自己,如果我們可以做得更好,我們會怎麼做?而不只是把我們真正做的事情變成模型?」

人類不是完美的,但演算法可以做到。自動駕駛汽車不會一邊開車一邊打電話,也不會對著後視鏡整理髮型。在車禍即將發生時,自動駕駛汽車的反應速度之快,就連反應最敏捷的人也望塵莫及。「我們無法測試我們在那些情況下會怎麼做。」比爾德說,「僅僅因為某件事是我們能力範圍之內的最佳選擇,並不意味著AI也應該這麼做。」

我們知道,生命價值模型反映了實用主義理論——死的人越少越好。足夠簡單明了。但最大程度地減少生命損失絕不是一個非黑即白的道德命題。

「一輛電車沿著軌道駛來,眼看著就要撞死五個人。」比爾德解釋說,「這時,你可以把一個陌生人推下橋,擋住電車,救那五個人,但被你推下去的那個人會死。這種情況下,你顯然不想最大程度地減少死亡人數。幾乎所有人都會說,你不能把那個人推下去,這是不對的。電車將會撞死那五個人,這非常不幸,但哲學家往往認為,出於某種原因,把那個人推下橋,這種行為越界了。」

把某個人推下橋,你不會因此成為好人。悲劇往往沒有給人留下選擇的餘地,但通過不斷做出艱難的決定,我們大多數人將得到成長。而演算法做不到這一點,至少是在道德層面上做不到。雖然它能學習,但它無法成長,也無法產生負罪感。它會把每次碰撞都視為它的第一次,每次只接受不同的數據點。

然後是智慧的問題,或者說,缺乏群體智慧。「僅僅因為很多人覺得某件事是對的,未必意味著它就是對的。」比爾德說,「我們很早就知道這一點了。不能因為其他所有人都在做一件事,就斷定它是對的。如果60%的人在做一件事,而40%的人在做另一件事,你必須好好想想這意味著什麼。」

演算法的道德規範將不得不受限於嚴格控制的場景,回歸到最大程度減少生命損失的實用主義模型,而對現代哲學家來說,這是一個思想雷區。在碰撞不可避免的情況下,自動駕駛汽車可以設法減少對人的傷害,但採用它們自己的道德體系後,就會破壞責任機制。一旦發生車禍,自動駕駛汽車是否須支付賠償?是否應成為法庭被告?

比爾德認為,擴大人工智慧在生死場景中的應用,這需要我們對演算法的可追責性有一個更廣泛的認識。他說:「如果我們想更普遍地應用AI,尤其是,如果我們想開發一種能夠解決所有領域中任何問題的通用人工智慧,那就需要解決一個更重要的問題:如何通過訓練,讓AI擁有道德。

研究出具有道德意識的演算法,這是一項充滿挑戰的任務。AI將擁有人類不會擁有或是無法擁有的經歷。這些經歷的局限性將決定我們以後如何調整演算法——究竟是模仿人類行為,還是超越它?

翻譯:于波

來源:Wired


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 造就 的精彩文章:

在這世界上,根本沒有一種叫「自我」的東西
尤瓦爾錯了!AI能夠有意識,也需要有意識!
尤瓦爾·赫拉利:異形沒有人類強大,而人類敵不過AI
LIGO數據中浮現莫名噪音,引力波發現會被否定嗎?
聽了他的理由,也許你會願意把晶元植入大腦

TAG:造就 |

您可能感興趣

在生活中不成文但人人都應當遵守的規矩,你遵守了嗎?
如果遵守戒律而被自己所信任的人欺騙,該怎麼辦?
心目中有哪些雖然不成文,但人人都應該遵守的規矩
人死後身體會化為有機物,若是遵守質量守恆定律,那麼思維如何?
感情不順?你遵守遊戲規則了嗎?
做了逍遙道士,是否還要遵守繁雜的人間禮制?
為人處事:遵守這六條天規,才叫大智慧!
清朝王爺的正妻為何都長得丑?因老祖宗一條規矩,不敢不遵守!
你連規則都不遵守,還跟我扯什麼道德?
憑啥遵守你的戒條,我又不是魔術師
你連規則都不遵守,還跟我扯啥道德!
如果蚊子咬你,你會拍死它嗎?修道者究竟該如何遵守戒律
為讓皇帝喝上好奶,保姆必須遵守無人性的方法
鬼谷子智慧:人在職場,身不由己,可這四個職場操守必須遵守!
英國王室媳婦和公主就是不一樣:這些規矩只需王妃和公爵夫人遵守
心理學:要想戀愛順利,聰明的女人都會遵守這三個原則
燈塔水母真的可以永生嗎?科學家:也是遵守自然規律的
人死後身體會化為有機物,如果一切遵守質量守恆,那思維呢?
此人制定了什麼規定?旅館太遵守,卻害了自己的性命,說:都怪我
修道必須遵守的禁忌,當心道法不靈!