為什麼歐盟呼籲共建 AI 倫理準則?
雷鋒網AI科技評論:下面這些問題,可能在我們不久的將來(一年或者兩年?)就會出現在我們身邊——
目前人工智慧正逐漸大規模地應用於醫療行業,許多疾病的診斷已經可以通過機器學習的方法來完成。但是我們設想,如果人工智慧診斷出現醫療誤判,最終導致醫療事故,那麼誰將來承擔事故責任呢?是提供技術的公司,還是醫院,或者醫生個人?
自動駕駛正逐漸上路,據各方估計在2020年之前自動駕駛汽車將進入消費市場。不可避免的,自動駕駛汽車在不熟悉的環境中可能會導致交通事故(例如2016年的特斯拉自動駕駛汽車事故),那麼在這種情況下誰將承擔法律責任呢?是車主,還是車輛生產方?
隨著人工智慧系統以及機器人研究的發展,致命自主武裝系統逐漸應用于軍事當中。當這些自主武裝系統在前線失控誤殺平民(甚至軍人)時,誰將承擔這些責任呢?
隨著人工智慧的發展,技術的壟斷越來越嚴重,政府和大企業在逐漸壟斷著技術和數據,他們一方面利用這些數據給我們的生活帶來便利,另一方面也在某種程度上控制著我們的生活。那麼技術是否應該開源開放呢?在什麼樣的標準上我們的人權才能得以保障呢?
…………
隨著人工智慧在人們生活中應用越來越廣泛,也有越來越多的人對這些問題開始思考和制定規則。在過去的兩年時間裡,有大量的AI研究人員開啟對AI倫理的思索。大家熟知的有:
2016年9月,Amazon、Facebook、Google、DeepMind、Microsoft 和 IBM等幾家全球大公司共同成立了 Partnership on AI,來研究和制定人工智慧技術的最佳實踐,促進公眾對人工智慧的理解,並作為一個開放平台來討論人工智慧對人和社會的影響。
2016年12月,IEEE首家發布了第一版《合乎倫理的設計:將人類福祉與人工智慧和自主系統優先考慮的願景》,由全球100多名人工智慧、倫理學及相關領域的思想領袖和專家共同制定。
2017年6月,ITU(國際電信聯盟)舉辦了「AI for Good」的全球峰會。今年五月將在日內瓦再次舉辦同一主題的峰會。
2017年11月,蒙特利爾大學舉辦「人工智慧的社會責任發展」論壇,隨後並發表了《人工智慧負責任開發宣言》
2017年,人類未來研究所發布的《阿西洛馬人工智慧原則》(共23條)。有1273名人工智慧 /機器人研究人員和其他2541人簽署並支持了這些原則。
此外,2016年聯合國在「特定常規武器公約」會議上啟動了關於人工智慧在軍事使用上的全球性辯論,其中大多數締約方贊同了所謂的「對致命自主武器系統進行有意義的人類控制原則」, 這條原則提出「凡是無有意義的人類控制的致命自主武器系統都應被禁止」。聯合國還在海牙建立了一個專門的研究機構(犯罪和司法研究所),主要用來研究機器人和人工智慧治理的問題。
但是上述的這些倫理思考,一方面並沒有經過嚴格地思考和準確地定義;另一方面,在國家層次上關於AI的規則制定並不平衡,有的國家已經優先制定了機器人和人工智慧的規則,甚至還通過立法來管理自動駕駛汽車;但大多數國家還沒有著手這樣的事情。
雷鋒網了解到,為了解決這樣的問題,近期歐盟的「歐洲科學和新技術倫理小組」(European Group on Ethics in Science and New Technologies,EGE)發布了一份聲明,希望各國能夠合作起來共同制定標準和規則,並呼籲對AI、機器人以及自主技術的倫理學進行廣泛和系統地討論。
在24頁的聲明中,EGE介紹了AI倫理的背景、面臨的問題以及重要的思考因素。它認為我們應當跳出狹義的倫理框架思考。例如,到底是什麼使我們陷入前文中提到的倫理困境?什麼才算「人類控制」?人們是否應當有權知道某個系統是自主系統還是人工系統?……
為了制定一套可作為建立全球標準和立法行動基礎的道德準則,作為第一步,EGE提出了一套基於《歐盟條約》和《歐盟基本權利憲章》的基本原則和民主先決條件。
基本原則和民主先決條件
a)人類尊嚴
人類尊嚴的原則,即尊重個人的生命和人格,不被人工智慧技術所侵犯。舉例來說,當人與一個系統進行交互時,我們應該明確被告知與我們交流的是機器,而不是真人。也即我們應當有知情權,知道我們是否以及什麼時候在與機器(或另一個人類)交流。
b)自主
自主原則意味著人的自由。對人工智慧系統的控制和了解應當成為人的責任,智能系統不得損害人類自由,不得設定自己的標準和規範。所有的智能技術必須尊重人類選擇是否、何時以及如何將決策和行動委託給它們。
c)責任
責任原則必須成為人工智慧研究和應用的基礎。智能系統的開發和應用必須為全球社會和環境的利益服務,因此它們的設計應該與人類的價值觀和權利相一致。由於智能系統的潛在濫用可能會對人類整體構成重大的威脅,因此風險意識和預防措施至關重要。
d)正義、平等和團結
應當利用人工智慧的優勢為全球正義、平等做貢獻。應儘早預防、檢測、報告和消除用於訓練人工智慧系統的數據集中的歧視性偏差。我們需要協調一致的全球努力,實現平等獲得智能系統技術,在社會內部公平分配利益和機會。
e)民主
關於人工智慧發展和應用管理的關鍵決定應通過民主辯論和公眾參與來決定。在這些問題上進行全球合作和公共對話,將確保這些問題以包容、知情和遠見的方式被採納。接受教育或獲取有關技術信息的權利將有助於每個人都了解風險和機遇,並有權參與決策過程。
f)法治和問責制
健全人工智慧時代的法律,確保降低可能侵犯人權的智能系統產生的風險(如安全和隱私)。應儘快投入開發有效的解決方案,以提供公平、明確的責任分配和有約束力的法律機制,解決該領域出現的所有法律挑戰。
在這方面,各國政府和國際組織應加大力度,明確智能系統的不良行為所造成的損失該由誰來承擔責任。
g)安全保障、身心完整
智能系統的安全保障體現為三種形式:(1)其環境和用戶的外部安全;(2)可靠性以及內部穩健性,例如抗黑客攻擊能力;(3)人機交互方面的情感安全。AI開發人員必須考慮到安全性的所有方面,並在發布之前進行嚴格測試,以確保智能系統不會侵犯身心完整(bodily and mental integrity)和安全保障(safety and security)的人權,尤其需要注意處於弱勢地位的人。
h)數據保護和隱私
在數字通信技術無處不在,且能夠大量收集數據的時代,保護個人信息和尊重隱私權的權力受到了嚴重的挑戰。作為物聯網一部分的AI機器人,以及通過互聯網運行的AI軟體必須遵守數據保護條例,而不是收集和傳播數據,或運行沒有給予同意的數據集。
智能系統不得干涉私人生活權,其中包括免受技術影響個人發展和發表意見的權利,建立和發展與他人關係的權利,以及免於監視的權利。
鑒於智能系統對私人生活和隱私的影響,可考慮引入兩項新的權利:有意義的人與人之間的接觸權,以及不被推薦、測量、分析、指導和干擾的權利。
i)可持續發展
人工智慧技術必須符合人類的責任,以確保我們星球上生命的基本先決條件,持續促進人類的繁衍以及為後代保持良好的環境。為了防止未來技術對人類生命和自然造成不利影響,制定的策略應基於環境保護和可持續發展為優先的策略。
雷鋒網結語:
相較於歐美國家在人工智慧安全和倫理方面熱鬧的場面,國內在此方面似乎稍顯冷淡一些。是我們不關心 AI 的安全和倫理嗎?是因為沒有利益驅動嗎?
私下與眾多學者的交流中,可以看出許多研究人員對人工智慧的安全和倫理都有著莫大的興趣和關注。但我們知道,這樣的工作往往不是一個群體所能帶動和完成的,它需要政府(政策)、學者(學識)、企業(資金)、媒體(宣傳)和公眾(支持)共同推動。而引起政、學、產、媒、眾關注和推動的第一步,可能就是——舉辦一場 AI 安全和倫理的會議?
期待在這個為 AI 制定標準的時刻,我們中國能貢獻力量。


※又是GAN!改個TAG,你就能對圖片為所欲為了 | 2分鐘論文
※春節特輯:香農熵和信息增益(上)
TAG:雷鋒網 |