當前位置:
首頁 > 新聞 > 可解釋的人工智慧:讓機器解釋自己,減少演算法產生的偏見

可解釋的人工智慧:讓機器解釋自己,減少演算法產生的偏見

2018年5月25日,「通用數據保護條例」(GDPR)在整個歐盟範圍內生效,要求對組織如何處理個人數據進行徹底改變。若違反GDPR條例的限制,相關組織必須支付高達2000萬歐元或其全球收入4%的罰款(以較高者為準),對威懾大多數違規行為具有很重要的意義。

由於不久前的劍橋分析醜聞鬧得人心惶惶,許多人希望GDPR將成為全球數據隱私新標準的典範。目前一些行業領導者正在呼籲Facebook將GDPR標準應用於其在非歐盟國家的業務。

可解釋的人工智慧:讓機器解釋自己,減少演算法產生的偏見

但隱私只是圍關於數據驅動系統之爭的一個方面,實際上機器學習支持系統的日益普及引發了一系列相關問題,包括一個對社會產生很大影響且無法量化的問題:偏見。

在我們的生活中,許多重要決策都是由某種系統做出的,很多系統都存在明顯的偏見,無論這系統是人、機器還是二者的組合。機器學習在決策制度中的作用越來越大,這為我們提供了一個建立更少偏見的系統的機會,當然也面臨著加劇這一問題的風險。

我們通常認為計算機比人類更客觀、更公正。然而過去的幾年裡,許多機器學習系統產生了帶有偏見或歧視的結果,人們對此也有著很多爭議。2016年時ProPublica曾報道,美國法院用來衡量被告再次犯罪可能性的機器學習演算法,在對比背景相似的黑人與白人被告時會認為黑人的「風險更高」,即使系統沒有提供有關被告種族的任何數據也依然如此。

雷鋒網不久前一篇名為《關於模型可解釋性的深入思考:從哪裡來,到哪裡去?》的文章中,曾詳細介紹了學習出一個通用智能行動者的潛力和局限性,演算法公平方面細微的以及可以被真正規範化的挑戰。人們使用機器學習系統的目的是希望世界更公平、更有效率,而不是進一步放大人類的偏見。

這就是為什麼GDPR允許用戶可以要求解釋機器任何「合法或類似重要」的決策,希望解釋的權利能夠使「演算法歧視」的受害者訴諸人權,從而減輕這種偏見的影響。

但是生成這些類型的解釋——即創造可解釋的人工智慧——是非常複雜的,而且即便系統對決策做出了解釋,也有一些評論家認為「無法分辨它們是真的反對偏見,還是僅僅是掩飾偏見。」

可解釋的人工智慧以及GDPR是否會使技術更公平?如果不是,隨著機器學習的使用變得更加普遍,我們還有什麼替代方法可以防範偏見?

機器學習中的偏見

關於偏見的討論常常被過分簡化為諸如「種族主義演算法」這樣的詞語,但其實問題不在於演算法本身,而是數據研究團隊提供給機器的數據。

例如,收集以往的數據是數據科學項目的一個共同起點,但「歷史數據往往偏向於我們不希望轉移到未來的方式,」加州大學伯克利分校電子工程與計算機科學學院助理教授、加州大學伯克利分校崛起實驗室的創始人之一Joey Gonzalez說。

假設某公司建立了一個篩選求職者的機器學習模型,並基於公司過去篩選類似職位求職者的數據集對模型進行培訓。如果該公司的HR曾多次拒絕過那些試圖重返職場的前全職父母,則培訓的結果很有可能會讓模型也將這些存在長期就業缺口的人排除在外。

如果更進一步,這將導致模型過多的拒絕女性求職者(全職父母多為女性)從而造成性別比例失調,即使性別並不是模型培訓數據集中的特徵。因此在這一領域中,使用機器學習將進一步放大人類的偏見。

可解釋的人工智慧:讓機器解釋自己,減少演算法產生的偏見

而這就是可解釋的人工智慧的用武之地。如果操作人員能夠檢查「推理」演算法,就有可能在演算法產生嚴重偏差之前進行糾正。

讓機器解釋自己

由於機器學習系統的行為由它學到的數據所驅動,所以它的工作方式與人們編寫的標準計算機程序有很大不同。人們可以測量一個機器學習系統的準確性,但是對於這種系統實際做出決策的可見性是有限的。

(雷鋒網註:和人腦類似,人腦的思考是由特定區域內神經元的複雜放電而產生,但人們並不確切知道具體怎樣的神經元活動會得出怎樣的思考。所以當人們想驗證決策正確性時並不會去掃描大腦,而是通過相關數據以及過往的經驗判斷。)

可解釋的人工智慧要求機器學習演算法可以自己證明決策的正確性。華盛頓大學的研究人員在2016年構建了一種稱為LIME的解釋技術,並在由Google構建的圖像分類神經網路Inception Network上進行了測試。

LIME在做出圖像分類決策時,不會考慮觸發神經網路中的哪個神經元,而是在圖像本身中搜索解釋。它會將原始圖像的不同部分變黑,並通過Inception將產生的「擾動」圖像反饋回來,以檢查哪些擾動將演算法拋離最遠。

通過這種方法,LIME可以將初始網路分類決策歸因於原始圖片的特定特徵。例如對於青蛙的圖像,LIME發現抹除部分臉部會讓初始網路很難識別圖像,這表明最初的分類決策大多是基於青蛙的臉。

可解釋的人工智慧:讓機器解釋自己,減少演算法產生的偏見

雖然像LIME這樣的特徵歸屬方法並不能完全解釋演算法的決策,並且在各種類型的機器學習模型上都不能工作的很好,但至少在圖像分類方面,它朝著正確方向邁出了一步。

據雷鋒網了解,美國的人臉識別系統對黑人的面部識別遠不如對白人那般精確(訓練演算法時用的圖像多為白人),這增加了黑人被監控攝像誤認導致被逮捕的可能性,嚴重者甚至會產生誤判。更好的解釋這些演算法決策並加以監督,顯然將有助於避免此類不良結果。

人們還需要做什麼

雖然可解釋的人工智慧和神經網路的特徵歸因很有發展前景,但消除人工智慧的偏見最終會歸結為一件事:數據。

如果演算法的訓練數據不能公平的覆蓋開發者想要服務的人群,系統就很有可能出現偏差。如果訓練數據隱含了歷史上的不公平現象,該演算法就會學習進而延續甚至放大這些問題。

雖然GDPR和類似的法規對組織如何使用數據進行了一些控制,但它們也無法阻止這些組織使用已經存在偏見的數據集。

演算法的發展當然對克服偏見有所幫助,但歸根結底責任並不在數學結構、軟體或硬體,而是在於這些決策系統的設計者和操作者,人們有責任明智而公平地收集,存儲和使用這些數據。

從某種意義上說,減少機器學習演算法中的偏見不僅需要人工智慧的進步,還需要我們對人類多樣性理解的進步。

可解釋的人工智慧:讓機器解釋自己,減少演算法產生的偏見

為了開發公平和負責任的人工智慧,技術人員需要社會學家,心理學家,人類學家和其他專家的幫助,他們能夠洞察偏見對人類生活的影響,並告訴人們如何避免讓偏見影響機器學習系統。

技術本身並不能解決社會問題,但是通過不同學科間的合作,研究者和開發者可以創建有利於更公平社會的機器學習技術。

via:venturebeat

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 雷鋒網 的精彩文章:

神畫Q1發布,將成3000元檔智能投影儀領跑者!
恆大擬發行首期10億元供應鏈ABS,2018房企供應鏈融資出現井噴

TAG:雷鋒網 |