當前位置:
首頁 > 最新 > 人工智慧的道德困境及其出路

人工智慧的道德困境及其出路

拜互聯網、大數據所賜,近年來人工智慧的發展突飛猛進,進化速度令人吃驚,並且帶來一系列技術、制度、社會關係方面的變化。

2017年,著名物理學家斯蒂芬·威廉·霍金曾在北京舉行的GMIC大會上稱,「我目前見證的最深刻的社會變化是人工智慧的崛起」。而這位偉大的科學家還有一個更廣為人知的觀點:人工智慧很可能是人類文明的終結者。

其實,這兩個觀點說的是一回事兒。在一個互聯網已經得到廣泛應用,越來越「去中心化」、「分散式」的世界,人工智慧的崛起也意味著人類智慧的失控和許多我們永遠無法預知的危險。尤其今年以來Facebook 數據泄漏、「大數據殺熟」、無人駕駛汽車發生車禍等事件引起的爭議、恐慌和道德危機,更是讓人們對數字技術和人工智慧的濫用憂心忡忡。所以霍金強調,人工智慧應該在符合倫理道德和安全措施要求的情況下開發,因為脫離人類控制之下的機器將很難被阻止。

即使不考慮被人為的用來侵犯隱私權和數字物權來獲利,人工智慧自身的進化、學習、發展也會帶來倫理問題的進階和升級,這也為諸多研究所證明。騰訊研究院的一項研究指出,缺乏倫理價值、常識、爭議觀念的演算法系統,在現實的交互中,很容易就會造成歧視和其他形式的不公。

《科學》雜誌中最新的研究也表明,隨著機器越容易習得類人的語言能力,他們同樣就越容易習得語言應用範式中根深蒂固的偏見,這種偏見如若被強化放大後果將不堪設想,這類存在性格缺陷的AI相比窮凶極惡的無恥之徒更加危險。

道德是人類緩慢進化的產物,但人工智慧的迭代又在加速,其複雜性和風險也不可同日而語,伴隨人工智慧興起所必要的道德該如何成為可能,越來越成為一個當今世界不可迴避的重大問題。

人工智慧和神經科學倫理學專家溫德爾·瓦拉赫與認知哲學家科林·艾倫合著的《道德機器——如何讓機器人明辨是非》正是這一領域的奠基之作。這本書之所以具有如此關鍵的開創性,很大程度上是有賴於對該問題在解決路徑所做的基礎性探討。

如果按照模擬人類道德演進路徑的解決思路,那麼最好的辦法無疑是「自下而上」的發展思路,其關鍵在於創造一個環境、生態能讓智能體探索自己的行為方式、去學習,在作出道德上值得讚揚的行為時適時得到獎賞,並將這種是非觀念和行為模式穩定下來。這種解決方案符合波普爾、哈耶克等社會科學大師的「開放社會」、「理性的自負」的經典理論,而且也為羅伯特·阿克塞爾羅德等行為分析及博弈論專家持續多年的研究所支持,無疑有堅實的學術基礎。更重要的是,這種思路很符合人類的歷史和經驗,甚至每個人從童年開始的道德發展就是按照這樣一種模式逐漸被建構起來的。文化即馴化,讓人工智慧也模仿人類「自下而上」通過行為選擇歷程承擔起道德責任看起來可行性最強。

然而,人類道德經驗的一個核心特徵就是,人們經常覺得自己會在自私的行為和利他的行為之間徘徊。人們感受到兩個方向的拉力,而這種對立就使自由成為可能——做錯的事情和做對的事情的相同的自由。更何況人工智慧畢竟比複雜的人類還要複雜一些。

這使我想起偉大的行為科學家諾瓦克在他的《超級合作者》一書中的一個結論:通過計算機對許多類型的博弈行為的模擬實驗,發現無條件合作者能夠逐漸摧毀「以牙還牙」策略和「寬宏以牙還牙」策略,卻無法擊敗「贏定輸移」策略。「贏定輸移」只關注自身得失,以確保自己在博弈中佔得先機,並不需要理解並記住其他人的行為,所以可以對無條件合作者加以盤剝。所以,正像人們在現實社會中看到的那樣,如果是人工智慧的道德來自「自下而上」,那麼也有可能讓「背叛者」或「投機者」取勝。所以,「自下而上」的過程也就是「試錯」過程,期間的不安全感帶來的威脅始終存在。

相對而言,「自上而下」的進路似乎更能獲得安全保障。在這一倫理原則上最典型的是阿西莫夫提出的機器人三定律:一是機器人不得傷害人類,或因不作為使人類受到傷害;二是除非違背第一定律,機器人必須服從人類的命令;三是除非違背第一及第二定律,機器人必須保護自己。

這裡就出現了一個非常矛盾的局面。一方面,機器在自動運行執行定律的過程中,必須要以認知、情感和反思能力來分析具體的情境,擔負道德責任,從而具有類似康德的絕對律令中的自由意志;另一方面,阿西莫夫定律又將機器人變成了人類的奴隸,使其喪失了獨立承擔道德責任的自主行為能力。況且,阿西莫夫定律兩個定律之間相互間就足以產生棘手的衝突。

所以這種源自宗教、哲學、文學等各個方面,以摩西十誡、法律和職業守則、黃金法則、道德箴言、鄉規民約等表現出來的「自上而下」進路恐怕也很難成就人工道德的路線圖。這種「戒律」模式在當前倫理學的主要學派之間尚各執一詞,美德間的衝突、不完善的美德清單,尤其是一些概念界定上的困難。比如功利主義、義務論和美德倫理學對規則之間的衝突和在具體情境中的運用都很難保持一致,就更難評估在人工智慧和機器人領域應用的後果了。

所以,這本書提出了一個重要思路:認為雖然很難有完備的解決方案,但有可能開始建構一種功能性道德,即人工道德智能體(AMAs),讓人工智慧具有基本的道德敏感性,在基於開放型、交互性的前提下,會逐步使人工智慧和機器具備道德決策能力,並隨著智能技術和人機交互的進步而進化、發展。

顯然,這是一種自上而下式與自下而上式的混合道路,這樣才能夠使美德和特殊的情境相結合,使人工道德智能體更像人。書中也介紹大量的這方面的研究成果,比如孟斐斯大學計算科學家斯坦·富蘭克林試圖在人工系統中整合理性推理與情感的IDA系統和學習型智能配給代理(LIDA)模型,伊戈爾·亞歷山大建構的涉及視覺意識過程結構的神經網路模型,以及霍蘭德的建立一個可以再現意識出現條件的機器人。

無論如何,能分別是非對錯的人工道德的重要性,一點兒也不亞於人工智慧本身。而且其中所揭示的關於人類道德決策的知識本身,也如陪伴孩子成長所得到的啟示一樣,會成為人類的一面鏡子。

事實上,人工智慧如果在道德決策問題上無法承擔其責任,那麼最大的受害者可能還是人工智慧本身。因為人恐怕是最會推卸責任的一種物種。人類具有對AI 的控制權,這一點從最近沸沸揚揚的Facebook泄露數據事件就可以看出端倪,甚至有評論文章以「賺錢和背鍋是AI的使命」為題加以指責。國內某著名互聯網公司在研究中也信誓旦旦強調:歧視在很多情況下都是演算法的副產品,是演算法一個難以預料的、無意識的屬性,而非編程人員有意識的選擇,這更增加了識別問題根源或者解釋問題的難度。

所以,人工道德成為可能,不僅需要在設計上走對方向,促進機器心靈與人類倫理統一。也需要加快相關的立法,規範人的行為,使人能夠應對人工智慧對人性的挑戰,發展出人工智慧時代作為人本身的道德進化。

本文刊於2018年4月28日《21世紀經濟報道》

作者| 本力(北望)

經濟金融網主編,騰訊大家專欄作者,曾創辦北望經濟學園。

文章來源:倫理管理學公眾號


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 經濟金融網 的精彩文章:

區塊鏈與組織發展未來

TAG:經濟金融網 |