當前位置:
首頁 > 新聞 > 歐盟發布人工智慧道德準則,值得信賴的AI要滿足這7大條件

歐盟發布人工智慧道德準則,值得信賴的AI要滿足這7大條件

當地時間4月8日(北京時間4月9日),歐盟委員會發布了一份人工智慧(AI)道德準則,提出了「值得信賴」的人工智慧應當滿足的7個條件。下一階段,歐盟委員會將啟動AI道德準則的試行,邀請工業界、研究機構和政府機構對該準則進行測試和補充。

《經濟學人》曾表示,美國和中國已經是毋庸置疑的AI超級體,而歐洲可以率先制定規則來限制AI系統可能造成的危害。許多人希望歐洲能建立AI行業的全球標準,就像其建立的新數據隱私法GDPR一樣。


七大條件

歐盟在技術監管方面佔據全球領先地位,去年引入了具有里程碑意義的數據隱私法GDPR,同時瞄準大型科技公司的反壟斷行為以及避稅問題,而目前人工智慧的道德準則是歐盟最新的監管方向。

歐盟召集了52名專家組成的小組,提出了他們認為未來AI系統應該滿足的七大條件:

受人類監管:AI不能侵犯人類的自主性。人類不應該被AI系統操縱或威脅,人類應該能夠干預或監督AI的每一項決定。

技術的穩健性和安全性:AI應該是安全和準確的。它不應該輕易受外部攻擊的影響,它應該非常可靠。

隱私和數據管理:AI收集的個人數據應該是安全的、私有的。它不應該讓任何人接觸,也不應該輕易被盜。

透明度:用於創建AI系統的數據和演算法應該是可訪問的,應確保AI決策的可追溯性。換句話說,運營商應該能夠解釋他們的AI系統是如何做出決策的。

多樣性、非歧視性和公平性:人工智慧提供的服務應面向所有人,無論年齡、性別、種族或其他特徵。同樣,系統不應該有任何偏向。

社會和環境福祉:人工智慧系統應該是可持續的(即它們應該對生態負責)並「促進積極的社會變革」。

問責制:應建立機制,確保對AI系統及其成果負責和問責。

目前這些要求不具有法律約束力,但它們可能對歐盟未來起草的所有法律造成影響。歐盟希望成為AI倫理領域的領導者,並通過《通用數據保護條例》(GDPR)表明,願意制定影響深遠的法律,以保護公眾的數字權利。

今年夏天,歐盟委員會將與相關方合作,確定可能需要額外指導的領域,並確定如何更好地執行和核查。2020年初,專家組將納入試點階段的反饋意見。

AI倫理探索

最早關於機器人的倫理規定是科幻作家阿西莫夫上世紀設計的防止機器人失控的「機器人三定律」:機器人不能傷害人類;它們必須服從於人類;它們必須保護自己。後來還加入了「第零定律」:機器人不得傷害人類整體,不得因不作為使人類整體受到傷害。

但是隨著人工智慧不斷發展,「機器人三定律」中的許多問題都有待進一步細化。

全球知名的艾倫人工智慧研究所首席執行官埃齊奧尼,兩年前在一次演講中呼籲更新「機器人三定律」。他還提出,人工智慧系統必須遵守適用於其操作人員的所有法律條文;人工智慧系統必須明確表示它不是人類;未經信息來源明確許可,人工智慧系統不能保留或披露機密信息等。

在過去的兩年時間裡,有大量的AI研究人員開啟對AI倫理的思索。

2016年9月,Amazon、Facebook、Google、DeepMind、Microsoft和IBM等幾家全球大公司共同成立了PartnershiponAI,研究和制定人工智慧技術的最佳實踐,促進公眾對人工智慧的理解,並作為一個開放平台來討論人工智慧對人和社會的影響。

2017年7月,中國政府發布《新一代人工智慧發展規劃》時就指出,建立人工智慧法律法規、倫理規範和政策體系,形成人工智慧安全評估和管控能力

去年年底,加拿大和法國聯合成立了一個國際小組,討論如何負責任地使用人工智慧。

目前,在國家層面上關於AI的規則制定並不平衡,有的國家已經優先制定了機器人和人工智慧的規則,甚至還通過立法來管理自動駕駛汽車,但大多數國家還沒有著手去做。

歐盟委員會指出,技術、數據和演算法不分國界,為此,其將繼續加強同日本、加拿大以及新加坡等志同道合國家的合作,並繼續在包括七國集團(G7)和G20在內的國際場合討論和倡議中發揮積極作用。

IBM歐洲主席頁特(Martin Jetter)對此表示,歐盟委員會此次出台的指導方針「為推動AI的道德和責任制定了全球標準」。


執行摘要

人工智慧是這個時代最具變革性的力量之一,它可以為個人和社會帶來巨大利益,但同時也會帶來某些風險。而這些風險應該得到妥善管理。總的來說,AI帶來的收益大於風險。我們必須遵循「最大化AI的收益並將其帶來的風險降到最低」的原則。為了確保不偏離這一方向,我們需要制定一個以人為中心的AI發展方向,時刻銘記AI的發展並不是為了發展其本身,最終目標應該是為人類謀福祉。因此,「可信賴AI」(Trustworthy AI)將成為我們的指路明燈。只有信賴這項技術,人類才能夠安心地從AI中全面獲益。

「可信賴AI」由兩部分組成:1)它應該尊重基本權利、相關法規、核心原則及價值觀,確保其目的合乎倫理道德;2)它使用的技術應該非常穩健、可靠,因為即使是出於好意,如果沒有成熟技術的加持,技術也會帶來意想不到的傷害。這些指導原則構成了」可信賴AI」的基本框架:

「可信賴AI」框架

Chapter I:確保人工智慧的目的合乎道德,規定了人工智慧發展應該遵守的基本權利、原則和價值觀。

Chapter II:關於實現」可信賴AI」的指導原則,同時強調AI發展目的的道德性和技術穩健性。這部分列出了」可信賴AI」的要求,以及實現這些要求所需的技術和非技術方法。

Chapter III:提供」可信賴AI」的具體但非詳盡的評估列表實施要求。該列表將根據具體的用例進行調整。

與其他有關AI倫理道德的文件相比,這份準則的目的不是為AI增加一份核心價值觀和原則清單,而是為AI系統的具體實施和操作提供指導。

該準則面向開發、部署或使用AI的所有利益攸關方,包括公司、組織、研究人員、公共服務單位、機構、個人或其他實體。該準則的最終版將提出一種機制,是否認可這些這些準則將由利益攸關方自行決定。

需要指出的是,制定這些準則並不是為了替代任何形式的決策或監管,也不是為了阻止其出台。這份準則應該不斷更新,以適應技術和知識發展的要求。


「可信賴AI」的實現

這一部分為」可信賴AI」的實施和實現提供了指導,指出實現」可信賴AI」有哪些要求,在發展、部署、使用AI的過程中有哪些方法可以滿足這些要求,從而充分利用由AI創造的機遇。

1.「可信賴AI」的要求

實現」可信賴AI」意味著需要在AI系統和應用的具體要求中加入一般、抽象的原則。以下是從Chapter I的權利、原則和價值觀中衍生出的十條要求。這十條要求同樣重要,但實施過程中需要考慮不同應用領域和行業的具體背景。

問責機制

數據治理

為所有人設計

人工智慧自治的治理(人的監督)

非歧視

尊重(增強)人類自主性

尊重隱私

穩健性

安全

透明

《準則》還對每一項要求進行了進一步解釋。例如,在「問責機制」這項要求中,《準則》指出,問責機制的選擇可能非常多樣,從金錢補償到過失調查,再到沒有金錢補償的和解。如一個系統誤讀了藥品報銷申請,錯誤地決定不予報銷,系統所有者可能會被要求做出金錢補償。其他要求的詳細內容請參考原文。

這一清單按字母順序對要求進行排序,以表明所有要求同等重要。Chapter III還提供了一份評估清單,以支持這些要求的實施。

2.實現「可信賴AI」的技術和非技術方法

為了滿足上一節中提到的要求,開發過程的所有層面(包括分析、設計、開發和使用)都可以採用技術和非技術方法(參見圖3)。對實施這些要求和方法的評估,以及對流程變化的報告和論證應該持續進行。事實上,考慮到AI系統不斷發展,以及在動態環境中運行,實現「可信賴AI」可以看作一個持續的過程。

雖然這份準則中的方法列表並不詳盡,但它旨在列出實施「可信賴AI」的主要方法。為了提高AI系統的可信度,這些方法應該基於第一章中定義的權利和原則。

圖3顯示了權利、原則和價值觀對系統開發過程的影響。這些抽象的原則和權利被具體化為對AI系統的要求,該系統的實施和實現要由不同的技術和非技術方法支持。此外,考慮到AI技術的適應性和動態性,繼續堅持原則和價值觀要求將評估(evaluation)和論證(justification)流程作為開發流程的核心。


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 獵雲網 的精彩文章:

從卡通動漫到少兒育導課程的全領域業態布局,魔力課堂如何演繹育兒的底層邏輯?
穩坐海外社交產品排行榜前十,Monkey用隨機視頻聊天配對+moments探索Z世代社交圈

TAG:獵雲網 |