當前位置:
首頁 > 最新 > 人工智慧決策也會產生偏見,人類該如何用法律做好把關?

人工智慧決策也會產生偏見,人類該如何用法律做好把關?

現在要創業不可不談人工智慧、大數據這兩大議題。從這再往下探討就可說到深度學習與機器學習的技術。無論是創業或是主管們,AI 和大數據都是未來的科技走向,而這兩大科技只會越來越龐大,不太可能突然消失。然而,當今人類對 AI 和大數據都還很陌生,就連發展前線的科學家們也只短期臆測未來會變得如何。那現在的我們能做到什麼,讓我們可以規避可預見的危機呢?

人工智慧(Artificial Intelligence)已成為現今全球產業必談的話題,各行各業不斷發想如何藉由人工智慧提升效率、增加產能。目前人工智慧已發展到第三波浪潮,此可歸功於半導體技術與運算能力的精進,第三波人工智慧是以大數據(big data)為基礎,發展機器學習(machine learning)與深度學習(deep learning)技術。透過人工智慧技術,企業似乎不費吹灰之力就能推估人的行為和偏好,進而更精準地提供產品和服務。近年來,不光是企業組織,各國政府亦發現利用人工智慧的好處,紛紛將其應用在決策上,不過爭議案例卻層出不窮。

紐西蘭想打造大數據演算模型受惠國家,但最後卻變成一個帶有偏見的無情機器

2014 年中國國務院提出《社會信用體系建設規畫綱要》,為在 2020 年達成全面實施社會信用體系的目標,各地政府陸續廣泛搜集人民的數據,利用大數據分析方式,從政務誠信、商務誠信、社會誠信、司法公信四大領域,對個人和企業組織進行評分。據 2018 年 3 月澳洲廣播公司報導,已有民眾在不明原因的情況下被列入失信名單,以至於旅行嚴重受阻或無法借貸,甚至資產被凍結。

無獨有偶地,據 2018 年 4 月紐西蘭媒體報導,紐西蘭移民署( Immigration New Zealand)從十八個月前開始實行一項實驗計劃(pilot programme),藉由國家簽證申請程序搜集移民的年齡、性別、種族、犯罪紀錄、醫療費用欠繳紀錄等數據,目的在建立一個演算模型 — 傷害模型(harm model),用以預測居留在紐西蘭的移民如果續留是否從事犯罪行為或帶來更多醫療支出。一旦模型顯示某些移民可能對國家造成治安疑慮或增加醫療負擔,這些移民將無法重新申請簽證,更甚者,將直接被驅逐出境。

紐西蘭移民署表示這個實驗計劃有利於政府及早採取行動,然而不少移民質疑演算模型帶有偏見。一位印度裔移民的家屬向紐西蘭移民署申請居留被拒,原因在於,移民署透過演算模型相信該印度裔移民的母親過去曾經患有乳癌,但實際上,他的母親不曾患過任何關於乳房組織的病變。此外,一些律師與人權團體亦因為演算模型納入種族數據,強烈抨擊移民署的計劃背後隱藏著種族歧視。

人工智慧的演算是不是應該納入人倫道德?

由於人工智慧演算模型設計可能帶有偏見進而導致歧視,美國已有大型科技公司試圖在人工智慧發展過程中將倫理因素納入考慮,希望人工智慧的應用更貼近社會期待。

2018 年微軟( Microsoft)在官方網站上公布人工智慧開發應考慮的六大倫理原則,包含公平性(Fairness)、可信賴性與安全性(Reliability and Safety)、隱私與安全(Privacy and Security)、包容性(Inclusiveness)、透明(Transparency)以及課責(Accountability),並透露微軟已成立人工智慧與工程及研究倫理委員會(AI and Ethics in Engineering and Research(AETHER) Committee)(簡稱 AETHER 委員會),負責研究人工智慧產品研發對人類和社會的影響,並提出適切的政策建議或最佳實務典範。 AETHER 委員會也會進行個案倫理審查,審查結果將會影響微軟的決策。

臉書(Facebook)針對旗下相關產業研究,在管理流程中設計一套倫理審查程序。先從人員的教育訓練開始,分別針對一般員工、研究者與審查者進行隱私和研究相關訓練。接著,在研究構想形成後,將計劃書提交給該研究領域的主管進行第一階段審查,判斷研究是否涉及較敏感的人口群或個體,進而需要諮詢其他專家之意見。

如是,則由跨功能團隊研究審查小組(cross-functional research review group)進行審查;如非,則依標準審查程序即可。無論采何種審查程序,皆須通過審查後才能開始執行研究計劃。另外,在審查評估標準方面,除了參考美國有關保護人體試驗的聯邦政策(Federal Policy for the Protection of Human Subject)(通稱 the Common Rule),以該政策中關於倫理審查之規定為基礎外,臉書又根據公司需求訂立四項標準,評估(1)研究是否能改善社會;(2)研究結果是否有潛在負面影響且已儘力降低該影響;(3)研究是否合乎一般人的期待;(4)是否採取適當預防措施以保護個人資料。

歐盟的 GDPR 怎麼應對大數據與人工智慧浪潮?

人工智慧的偏見問題不僅反映在企業產品研發上,公務機關和民間機構每天作出成千上萬個影響個人生活的決策,倘若一味追求績效而完全信賴人工智慧判讀,會造成什麼樣的不良後果可想而知。前述只是美國企業藉由自律方式,使人工智慧產品研發盡量不背離倫理道德,並沒有任何法律拘束力;但實際上,在歐洲地區卻有相關法律規定。

為了因應大數據與人工智慧時代對個人資料保護之衝擊,歐盟一般數據保護規則( General Data Protection Regulation, GDPR)針對自動化決策(automated decision-making)和數據剖析(profiling)已明文規定。依據 GDPR 第 22(1)條規定,純粹基於自動化數據處理(包括數據剖析)所作成的決定,對於數據當事人(data subject)產生法律效果或類似重大影響時,數據當事人應有權免受該決定的拘束。所謂純粹基於自動化數據處理所作成之決策,指的是在沒有人為參與的情況下,透過技術方式作出的決策。

然而, GDPR 並不是完全禁止純粹基於自動化數據處理所作成的決策,前提是這種決策必須對數據當事人產生法律效果或類似重大影響。例如:人才招募系統使用預先排程的演算法與標準進行性向測驗,並純粹依此結果決定是否面試特定人時,當事人可能不明究理地被阻擋在求職大門之外,嚴重影響就業機會,這樣的決策將被歐盟所禁止;而藉助演算法了解客戶收視習慣進而推薦電視節目的情況,因可能不會產生法律效果或重大影響,則不在 GDPR 第 22 條禁止之列。

此外,如果是基於以下三種情況:(1)簽訂或履行契約所必要(2)經過歐盟或其會員國法律所授權(3)經過資料當事人明示同意,仍可藉由純粹自動化數據處理方式作決策。但是,數據控制者(data controller)和數據處理者(data processor)必須盡到以下義務:(1)主動將自動化決策和數據剖析一事通知數據當事人;(2)實施適當安全措施,例如預先進行數據保護影響評估(Data Protection Impact Assessment, DPIA)並做好風險管理;(3)提供數據當事人權利行使管道,例如當事人異議或申訴程序。

人工智慧無論怎麼發展都應抱持著一顆以人為本的心

不可否認,人工智慧為人類生活帶來許多方便,無論營銷、金融服務、健康照護、教育等各領域,一旦遇到需要分析處理大量數據時,人工智慧總是能導出更快速而一致化的決定。然而,在效率與便利性的背後,卻伴隨著一些不為人知的風險。

當人工智慧發展已逸脫於傳統自動控制模式,機器不再只是單純按照人類默認的指令動作,而是具備探索推論與學習的能力時,似乎更應該重新思考發展人工智慧究竟是為了什麼?,否則人工智慧很容易淪為侵害他人權益的工具,甚至最後導致人類被機器完全取代。倘若發展人工智慧的根本目的是為了改善人類生活福祉,那麼在其發展與應用過程中,似乎沒有理由將倫理、道德及其他與人的權利、自由相關因素排除在外,這也是美國知名科技公司建立倫理審查程序以及歐盟制定 GDPR 規範的原因之一。

以人為本的觀念已逐漸在科學技術專家中成為共識,國際性電子工程專業技術組織 —電機電子工程學會( Institute of Electrical and Electronics Engineers, IEEE)在 2016 年發表的《以倫理為基準的設計(Ethically Aligned Design)》,就強調倫理研究對人工智慧的重要性,認為應將人的倫理與價值觀設計到人工智慧系統中,才能符合社會期待,進而在追求商業經濟效益和社會利益之間達到平衡。

儘管我國政府與產業亦跟隨世界潮流,正如火如荼地推動人工智慧發展與應用,但關於人工智慧與倫理關係議題仍處於探討階段,尚未形成明確的制度或規範。為了人工智慧發展的永續性,如何建立良善的環境使技術發展既能改善經濟又同時符合人民的期待,將是當前必須重視的課題之一,美國企業與歐盟 GDPR 相關規定,或許能作為我國企業自律與法律規範調整之借鏡。

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 沉著小思嬡 的精彩文章:

為什麼雷軍的聲譽要明顯好於余承東周鴻禕馬雲等人?
怎樣看待「如果不論畫質,手機拍照已經趕超單反攝影」?

TAG:沉著小思嬡 |