當前位置:
首頁 > 最新 > 歐盟眼中的人工智慧倫理問題

歐盟眼中的人工智慧倫理問題

曹建峰 騰訊研究院法律研究中心高級研究員

付一方 騰訊研究院法律研究中心助理研究員

霍文新 騰訊研究院法律研究中心助理研究員

如今,人工智慧倫理成為國際社會關注的焦點。

此前,未來生命研究院(FLI)推動提出「23條人工智慧原則」,IEEE發起人工智慧倫理標準項目並提出具體指南。聯合國曾耗時兩年完成機器人倫理報告,認為需要機器人和人工智慧倫理的國際框架。OECD亦開始考慮制定國際人工智慧倫理指南。

歐盟在這方面的動作亦很頻繁,積極推進人工智慧倫理框架的確立。去年歐盟議會就曾通過一項立法決議,提出要制定「機器人憲章」,以及推動人工智慧和機器人民事立法。

去年年底歐盟將人工智慧倫理確立為2018年立法工作重點,要在人工智慧和機器人領域呼籲高水平的數據保護、數字權利和道德標準,並成立了人工智慧工作小組,就人工智慧的發展和技術引發的道德問題制定指導方針。

2018年3月9日,歐洲科學與新技術倫理組織(European Group on Ethics in Science and New Technologies)發布《關於人工智慧、機器人及「自主」系統的聲明》(Statement on Artificial Intelligence, Robotics and 『Autonomous』 Systems)。

報告認為,人工智慧、機器人技術和所謂的「自主」技術的進步已經引發了一系列複雜的、亟待解決的道德問題。

該聲明呼籲為人工智慧、機器人和「自主」系統的設計、生產、使用和治理制定共同的、國際公認的道德和法律框架。聲明還提出了一套基於歐盟條約和歐盟基本權利憲章規定的價值觀的基本倫理原則,為人工智慧、機器人以及「自主」系統的發展提供指導性意見。

技術背景

如今,人工智慧在公共部門和私營部門帶來層出不窮的新產品和新服務,可以改善工作條件或減少對人類投入的需要,從而輔助或取代人類。然而,人工智慧系統卻是最不透明的。

深度學習和所謂的「生成對抗網路模型」使機器自我學習。但是,機器的行為常常是不可理解的,也不受人類審查。不僅人們無法知曉系統如何決策,而且所使用的數據也是不公開的。因此,偏見和錯誤可能進入系統。

相關的技術發展包括以下方面:

(1)以機器學習(尤其是深度學習)為代表的人工智慧,在大數據的驅動下,變得越來越強大。一般認為,人工智慧的內在機理極其難以追溯、解釋和評估。

(2)先進的機電一體化(人工智慧與深度學習、數據科學、感測器技術、物聯網、機械和電氣工程相結合)正在為服務業、生產行業和健康領域的實際應用,設計出各種機器人和高科技系統,例如可以從事護理、零售、物流、家庭自主以及維護安全的各種系統。目前在這個領域爭論最多的是機器人武器系統(robotic weapons systems)和「自主」(autonomous)汽車這兩項應用。

(3)更加智能的系統具有高度的自主性,這意味著其可以獨立地執行任務而不受人類的控制。

(4)機器人、人工智慧和機電一體化,正在推動著更高程度自主系統的發展。國家和大型公司都在這個領域內投入了大量資金。目前,能夠在人工智慧研究領域保持領先地位成為了世界超級大國的主要目標之一。

(5)在人工智慧的發展過程中要注重人類和機器的密切互動和緊密合作。實踐證明,在某些領域內,人工智慧系統和人類專業人員密切配合的效率往往要高於人類或機器系統單獨操作。

道德反思

現階段值得我們進行反思的是,隨著能夠脫離人類而獨立運行的高科技系統和軟體的出現,一些人類工作即將被取代,這將引發一系列重要且艱難的道德問題。

1.關鍵問題

第一,是關於安全性、保險性以及預防損害、減少風險的問題。我們如何才能讓互聯的人工智慧和「自主」設備安全可靠地運行,我們又該如何評估風險?

第二,是關於人類道德責任方面的問題。在具有先進人工智慧和機器人組件的動態和複雜的社會-技術系統中,道德相關的代理(agency)應該處於什麼位置?應該如何分擔產生的道德責任,又應該由誰為其中產生的不良後果負責?探討人與智能機器之間的「共同控制」和「共同責任」是否有意義?人類是否將成為被視為道德「緩衝區(crumple zones)」的「自主」設備的生態系統的一部分,是為了吸收責任,還是他們有能力為自己的行為負責?

第三,人工智慧引發了關於治理、監管、設計、開發、檢查、監督、測試和認證的問題。我們應該如何重新設計為個人和社會服務的機構和法律,以確保這一技術不會給社會帶來危害?

第四,是有關民主決策的問題,主要是關於制度、政策以及價值觀的決策,這些是解決上述所有問題的基礎。在全球範圍內開展調查,確定公民利用基於機器學習、大數據和行為科學相結合的先進技術的程度,確定其是否能夠利用這些先進技術進行細緻的分析和定位,或者根據商業或政治目的進行合適的架構選擇。

最後,對人工智慧和「自主」系統的可解釋性和透明度仍存在疑問。這些系統能夠有效地提供哪些價值?我們應基於何種價值觀來設計機器,制定政策?我們在技術進步和效益權衡方面是否直接地或間接地破壞了一部分價值?

一些國家關於人工智慧驅動的,基於社會評分系統的,社會過程的「最優化」的試驗,違背了平等和自由的基本思想,這就像種姓制度一樣,在現實中定義了「不同種類的人」以及「人的不同屬性」。

2.核心考量

道德意義上的自主只能是一種人類活動。所以,將「自主」這個術語應用於純粹的人工製品,是一種誤用。然而,「自主」系統這個術語在科學文獻和公眾辯論中卻廣泛流行,指的是在操作和決策「自主」方面最高程度的自動性和獨立性。但是,原始意義上的自主是人類尊嚴的一個重要方面,不應該將其相對化。

機器不能被賦予人的道德地位並且繼承人的尊嚴。因此,與生產的自動化相反,用我們處理物體或數據的方式來解決人類問題是不合適的,這種對人類「自主」的處理方式是不道德的,並且會破壞本質意義上的歐洲價值觀。

人們應該明確哪些價值是可以由技術服務的,哪些是與道德緊密相關的,不管機器會變得多麼「自主」,有些問題是不能由它們來解決的。

這裡的道德責任可能被廣義地解釋為涉及人類代理的幾個方面,例如因果關係、問責制(提供說明的義務)、責任(賠償損害的義務)、讚賞和責備等反應性態度以及與社會角色相關的責任。無論如何,道德責任不能被分配或轉移到相關的「自主」技術上。

最近,在關於致命自主武器系統(Lethal Autonomous Weapons Systems)和自主車輛的爭論中,似乎存在著廣泛的共識,即有意義的人類控制對道德責任至關重要。

這是有意義的人類控制(Meaningful Human Control)原則首次被提出用來限制未來武器系統的開發和利用。這意味著人類——而不是計算機及其演算法——最終應在此類問題上保持控制權。

3. 超越狹義道德框架(ethical framing)

自動駕駛汽車和致命自主武器系統的發展引發了眾多關於道德的辯論。該框架的核心問題主要是「自主」系統的責任問題,其可能造成的影響以及如何對其進行編程,使其能夠在應用中符合道德規則,如在危急情況下挽救人的生命。

這其實忽略了很多問題,例如「過去採取的哪些設計方面的決策造成了這種道德困境」,「哪些價值觀應該在設計中予以考慮」,「設計中的價值應該在衝突情況下如何衡量以及由誰來衡量」?

第二個存在爭議的是「自主」武器系統。現在需要關注的問題是這些系統上「有意義的人類控制」的性質和意義是什麼,以及如何建立這種符合道德原則的「有意義的人類控制」。

第三個重要的應用領域是「自主」軟體,包括機器人。除了關於數據保護和隱私的簡單問題之外,我們可能會問人們是否有權知道他們是在和人還是和人工智慧系統交流。

此外,問題還在於是否應該限制人工智慧系統根據個人對其身份概念的建構而向該人提供建議的行為。雖然人們越來越意識到需要解決這些問題,但目前人工智慧和機器人技術的發展速度遠快於尋找這些棘手的道德、法律和社會問題答案的速度。顯然現在急需為人工智慧,機器人和「自主」系統的設計、生產、使用和治理規劃一個整體化的、全面性的發展進程,為設立共同的、國際公認的道德框架鋪平道路。

建立一個同時適用於人工智慧,

機器人和「自主」系統的倫理框架

許多行業內部的從業者和專家協會都提出了制定人工智慧和「自主」系統的道德原則方面的一些突出舉措。

主要倡議之一是由生命未來研究院(FLI)發起的,最終形成了「阿西洛瑪人工智慧原則(Asilomar AI Principles)」。這份指導人工智慧研究和應用的23項基本原則已由數百名利益相關方簽署,簽署者主要是科學家、人工智慧研究人員和行業相關者。

聯合國和「特定常規武器公約」的會議啟動了人工智慧軍事應用的全球性辯論,大多數締約國都贊同「對致命自主武器系統進行有意義的人類控制」原則,應該禁止建立能夠脫離人類控制的自主武器系統。聯合國還在海牙建立了一個專門研究機構,研究機器人和人工智慧的治理。

與此同時,在國家層面上,各個國家對待人工智慧的態度各不相同。一些國家將制定機器人和人工智慧規則作為優先事項,而其他國家卻尚未採取任何措施。由於各國發展狀況不一,歐洲議會呼籲先採取一系列措施來準備對發展到一定階段的人工智慧進行監管,包括為機器人的設計、生產和使用制定指導性道德框架。

道德原則和民主先決條件

歐洲科學與新技術倫理組織提出了一系列基本原則和民主先決條件,其基礎是歐盟條約和歐盟基本權利憲章。

(1)人類尊嚴(Human dignity)

尊嚴原則可被理解為對固有的人類狀態尊重性地承認,其不能被「自主」技術所侵犯。這意味著,對於演算法和「自主」系統必須加以法律的限制。以社會關係為特徵的人格尊嚴要求我們意識到自己是否或者何時與機器或其他人互動,並且應保留將特定任務歸還給人或機器的權利。

(2)自主(Autonomy)

自主原則意味著自由。但這就賦予了人控制和了解「自主」系統的責任。因此,所有「自主」技術必須尊重人類選擇,尊重人類選擇是否、如何以及何時將決策和行動委託給人工智慧系統的能力。這也涉及「自主」系統的透明度和可預測性。

(3)責任(Responsibility)

責任原則是人工智慧研究和應用的基礎。「自主」系統的設計應該與基本的人類價值觀和權利相一致。對「自主」技術而言,風險意識和相應的預防措施至關重要。

人工智慧和機器人技術的應用不應對人類構成傷害或讓其承受不可接受的風險,並且不應通過非法手段損害公民的選擇權和自主權,而應該是增加獲取知識的機會,並以關注倫理、社會責任以及保護基本權利和價值作為追求目標。

(4)正義、公平和團結(Justice, equity, and solidarity)

對於人工智慧系統,應儘早預防、檢測、報告以及消除系統中訓練和運行數據中存在的歧視性偏差。這包括制定公平分配利益和機會公平的新型模式。要警惕累積的大量個人詳盡數據的不良影響,避免激進個人主義的出現。

(5)民主(Democracy)

人工智慧發展和應用管理的關鍵決策應該通過公眾參與,經過民主辯論得出。獲取有關新技術的信息有助於每個人充分了解風險和機遇,並參與決策過程。人的尊嚴和自主原則集中地通過民主手段來體現人的自決權,數字技術應該通過運用集體智慧來改善民主社會所依賴的公民進程。

(6)法治和問責制(Rule of law and accountability)

司法機關所能發揮的作用為設立人工智慧具體規定提供了必要框架。這包括對「自主」系統可能產生安全和隱私風險的保護問題。對該領域出現的所有法律問題,應當及時研究並尋找強有力的解決方案,提供公平和明確的責任分配以及有約束力的法律機制,明確「自主」系統不良行為所造成損害的責任承擔問題。

(7)安全性、保險性以及身體和精神完整性(Security, safety, bodily and mental integrity)

「自主」系統的安全性和保險性體現為三種形式:其環境和用戶的外部安全性;可靠性和內部穩健性;人機交互方面的模式安全。人工智慧開發人員必須考慮到安全方面的所有問題,在系統發布之前進行嚴格的測試,以確保「自主」系統不會侵犯多方面的安全性。

(8)數據保護和隱私(Data protection and privacy)

在數字通信技術無處不在的時代,個人信息和隱私權的保護受到嚴峻威脅。在此環境下,人工智慧機器人以及人工智慧軟體必須遵守數據保護條例(GDPR)。

此外,「自主」系統不得干涉私人生活,在這方面,應確定確切的標準並建立相關機制,以確保道德機制不斷完善,為「自主」系統的正確適用提供規範。

(9)可持續性(Sustainability)

在發展人工智慧技術的同時要防止未來技術對人類生命和自然造成不利影響,應將環境保護和可持續性優先放在人工智慧發展政策的首要位置。如果設計和應用得當,人工智慧、機器人和「自主」系統有助於實現道德理想和社會經濟目標。

結論

歐洲科學與新技術倫理組織呼籲歐盟委員會認真考慮本聲明中討論的問題及相關法律規則,確認是否需要新的管理和監管手段。為人工智慧、機器人和「自主」系統的設計、生產、使用和治理,建立一個通用的、國際公認的道德和法律框架。

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 騰訊研究院 的精彩文章:

尋「跳一跳」千分玩家,賞金:10W
聽聽美國頂級智庫怎麼看人工智慧?

TAG:騰訊研究院 |