當前位置:
首頁 > 新聞 > 悲觀?樂觀?人工智慧倫理道德問題飽受爭議

悲觀?樂觀?人工智慧倫理道德問題飽受爭議

幾千年來,人類的倫理道德問題,從神學著作,到康德的純粹哲學理論爭辯,很難用簡單的公式去表達。在標準版的電車問題中,一輛有軌電車失去了控制,即將造成五人死亡。有軌電車可以通過改變鐵軌上的道岔來改變方向。然而,這樣會導致一名工人被重新改變了方向的電車撞死。為了挽救五個人的生命而使鐵軌改道,從而造成一名工人的死亡,在道德上是否允許?根據康德的觀點,如果不改變電車的方向,任何人都不能為了救那五個人而危害那一位工人。從功利主義的觀點來看,一個人必須考慮他的行為的後果和總效用,即對大多數人來說有最大的好處,因此他必須改變電車的方向。倫理理論最終導致了不同的解決方案。

隨著人工智慧技術與理論的進步,其道德倫理問題也被推進更富有爭議的話題:

從1999-2018 年的 Web of Science資料庫(以下簡稱WOS資料庫)中,無論是以「人工智慧倫理」為主題的文獻還是以「機器人倫理」為主題的文獻都呈現出顯著的增長趨勢。特別是近十年來,相關文獻出現了井噴式增長1999 至 2015 年文獻量的總和。這樣高速的增長趨勢,表示出越來越多的學者意識到人工智慧倫理研究對於社會發展的重要意義與積極作用,探索人工智慧倫理研究的知識情報有助於人工智慧產業以及人類社會的健康發展

(來源:WOS資料庫)

(來源:WOS資料庫)

人工智慧是造福人類的利器,還是毀掉世界的終極惡魔?

機器人的英文單詞是「Robot」, 最早由捷克作家卡雷爾?恰佩克在其科幻作品中首創, 原意是「農奴式被強迫的勞動者」。2017年8月21日,人工智慧公司的 116 位創始人和首席執行官們,給聯合國寫了一封公開信,希望禁止「殺手機器人(即自動化武器,如無人機、無人戰車、哨 兵機器人、無人駕駛軍艦等)」的研發與使用。他們認為,這些機器人有成為恐怖武器的可能。獨裁者和恐怖分子有可能利用這些武器對無辜人群使用,或以其他不可取的方式使用。

然而,2017年10月15日,英國政府在發布的《英國發展人工智慧》報告中指出,人工智慧具有改善教育醫療保健、提高生產力的巨大潛力,該報告從數據、技術、研究以及政策的開放與投入等方面,對人工智慧發展提出了18條建議,意欲使英國成為人工智慧的世界領導者。英國不是唯一重視人工智慧大戰的國家,各國都在熱情的擁抱這一項技術,每項技術發明都飽負爭議,歷史告訴我們,技術進步確實讓人類生活更加的自由了。

人工智慧的善惡到底該如何評價?我們應當以何種態度對待人工智慧的發展

學術界有關人工智慧道德判斷的爭論人工智慧的道德判斷需要區分兩個問題 :其一,人工智慧本身的道德評價問題;其二,人工智慧研發與應用後果的善惡評價問題。對人工智慧進行道德判斷的關鍵問題沒有解決,即未對人工智慧本身善惡評價問題,與人工智慧的研發與應用所帶來的後果的善惡評價問題進行區分。後一問題解決的關鍵還是在人類自身。但是前一問題的解決,我們就不能基於現有的倫理道德框架對其進行評判,而應對傳統的科技倫理進行批判性反思。

[1]目前有關人工智慧的善惡評價可謂此起彼伏,莫衷一是。

總體而言,學術界主要存在以下三種立場與觀點:

第一種樂觀主義立場。

持此種立場的專家學者認為,人工智慧只是一項手段與工具,本身無所謂「善與惡」「好與壞」,關鍵在於使用它的人類本身,對人工智慧的未來發展前景持樂觀主義態度,總體而言,人工智慧的研發與廣泛應用對人類發展利大於弊,能產生巨大的經濟效益與社會效益。

一般而言,樂觀主義立場大多是由一些與人工智慧研發與應用相關,或出於自身利益考慮的人工智慧界人士,或出於對科學技術盲目崇拜的科學主義者所堅持的,其缺陷在於片面地、孤立地看待人工智慧的積極方面,比如能夠產生巨大的經濟與社會效益,重構包括金融、醫療、教育、交通等幾乎所有的行業,從而推動人類生活方式的整體變革。他們有意或無意地忽視或者掩蓋人工智慧的消極作用,比如殺人機器人的誕生將會給人類帶來安全威脅以及人類過度依賴人工智慧文明可能造成人類文明的退化問題,等等。

第二種中立主義立場。

持此種立場的專家學者承認人工智慧本身存在「作惡」的可能,它的研發與應用對人類具有潛在威脅,可能帶來嚴重後果,但基於一些理由仍大力支持發展人工智慧技術。

人工智慧目前尚處於發展的初級階段,其危害遠遠不夠強大,所以不必過分擔憂;

例如,人工智慧領域的全球領銜分析師湯姆?奧斯汀表示,霍金等「徹底開發人工智慧會導致人類徹底毀滅」的警告是「非常愚蠢」的,其理由在「現在人工智慧還很低級」。

「人造的東西不可能超過人」;

這一觀點源於某種宗教情懷,即「造物主一定比所造之物高明」,所以不用杞人憂天。令人諷刺的是,本該最具無神論精神的科學主義者,卻從宗教信念中尋求思想資源。

「人類可以設定人工智慧的道德標準」,但是從未對「人工智慧必然會服從人類設定的道德標準」提供過有效的論證;

還有人認為只要對人工智慧進行道德教育,就可以保證他們一心向善,全心全意為人類服務。然而,問題是道德教育如何能夠防止人工智慧 朝不道德方向發展。

第三種悲觀主義立場。

持此種立場的專家學者認為,人工智慧不再是工具地位,自身具有生命意識與學習能力,在道德上具有「作惡」的兩種可能:一種是人工智慧的強大威力可能引發「人類作惡」,另一種是人工智慧自身具有「作惡」的能力,而且人類對人工智慧的「作惡」無法應對,最終將使人類走向虛無與毀滅。因此,他們表達了人工智慧將來有可能失控或危害人類的擔憂。2015年初,史蒂芬?霍金、比爾?蓋茨和埃隆?馬克斯等人簽署了一封公開信,呼籲控制人工智慧開發。馬克斯認為人工智慧會「喚出惡魔」,比核武器對人類的威脅還大。霍金則明確斷言:徹底開發人工智慧可能導致人類滅亡。持悲觀主義立場的人認為,技術並非使人類獲得解放的道路,它「並非通過控制自然而從自然中解放出來,而是對於自然和人本身的破壞,不斷謀殺生物的過程將最終導致總體毀滅」。

總結:

科技倫理是人類為了避免或減少科技濫用給自己帶來的「負面」作用,從而為人們的科技行為制定出一套規範和一定的限制,以限制其發展的限度。這種觀點只是簡單粗暴地從既定的倫理道德立場出發,對科技行為的「是非與善惡」進行道德評判,並向科技提出規範性的呼籲或指令,而不對倫理道德體系本身進行反思、修正與發展。

事實上,科技發展的許多重大問題,「已經不是傳統的倫理道德框架能夠提供某種有價值的答案,而需要對傳統的倫理觀念及其前提性規定進行批判反思」的基礎上,才能做出有效的回答。具體到人工智慧的道德評判問題,則需要對「人工智慧是否是真正意義上的人格實體與道德實體」進行批判性反思,而不是在某些細枝末節問題上糾纏不清,否則對問題的實質把握及其根本性解決是無所助益的。

References:

[1]王銀春, 人工智慧的道德判斷及其倫理建議. 南京師大學報(社會科學版), 2018(04): 第29-36頁.

復旦大學教授王國豫老師長期從事高科技倫理問題的基礎理論和應用對策研究,她是國家社會科學基金重大項目「高科技倫理問題研究」首席專家。她主張新時代科技下的倫理道德研究一方面要從現實維度出發,以問題意識為導向,指出現代技術對傳統生命觀的遮蔽。另一方面從技術倫理學的路徑出發,強調技術中蘊含著價值,要從源頭上闡清概念,制定規範,進而從倫理共同體、科學共同體走向行動共同體。

CNCC2019大會,特邀請演講嘉賓王國豫老師作主題報告。開設「人工智慧開發有道德邊界么?」、「智能駕駛未來之路」等主題的分論壇,共同探討人工智慧的道德倫理的問題。

CNCC介紹:

CNCC2019由大會報告、大會論壇、技術論壇、活動、展覽等環節組成,其中技術論壇數量最多,400多位精英為大會貢獻的多場高質量論壇,吸引了國內外大量的學術、工業界人士參會,是計算前沿交流的舞台。更有前沿技術與應用的預測,以下是本次大會獲評通過的CNCC2019技術論壇列表:

戰略合作媒體

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 DeepTech深科技 的精彩文章:

基礎物理研究特別突破獎頒出,MIT名譽教授Daniel Freedman獲獎
PNAS:揪住最致命 RNA 病毒的「小尾巴」

TAG:DeepTech深科技 |