當前位置:
首頁 > 最新 > fast.ai創始人質疑《哈佛商業評論》文章:演算法偏見的影響很嚴重!

fast.ai創始人質疑《哈佛商業評論》文章:演算法偏見的影響很嚴重!

來源:fast.ai

編譯:Bing

上個月,《哈佛商業評論》發表了一篇名為Want Less-Biased Decisions? Use Algorithms的文章,作者為Alex P. Miller。文中表示,雖然目前AI演算法存在偏見,但是技術的進步如果有助於提高系統性能,這也是很重要的。即使有了偏見,也比人類的偏見小得多。

地址:https://hbr.org/2018/07/want-less-biased-decisions-use-algorithms "Want Less-Biased Decisions? Use Algorithms"

針對這篇文章,fast.ai的創始人之一Rachel Thomas有不同的看法。她認為演算法偏見的影響實際上深遠得多,我們關注的重點應該是如何解決這一問題。以下是論智對原文的編譯:

最近,《哈佛商業評論》刊登了一篇文章,講的是人類總是作出有偏見的決定(這確實沒錯),但文章忽視了許多相關問題,包括:

演算法的實現通常沒有適當的方法(因為很多人誤解演算法是客觀、精準並且不會犯錯的)

在很多情況下,演算法的使用比人類決策規模大得多,所以也會產生和人類相同的偏見(通常是由於演算法使用成本低)

演算法的使用者也許不了解概率或置信區間(即使這些都已經標明了),而且如果讓他們重寫演算法也會很困難

與其關注微不足道的選擇,更重要的是思考怎樣才能創造偏見更少的決策工具。

在《哈佛商業評論》的文章中,作者Miller認為,「演算法革命」的批評者們擔心「演算法在運用時會不透明、帶有偏見,成為無法解釋的工具」,但是在文章中,他只針對「偏見」展開解釋,對「不透明」和「無法解釋」的特徵沒有解釋。

人機結合才能真正進步

媒體總是通過人類和機器的對比來顯示AI的進步,我們總是看到這樣的標題:「在XX比賽中,機器戰勝了人類」。如果考慮到大多數演算法的使用方法,這種對比也是不準確的,這樣評價AI也是非常狹隘的。在所有案例中,演算法都有人類因素存在,尤其是數據的收集、決策的制定、實現方式、對結果的解讀以及不同參與者的不同理解等方面,都會受人類的影響。

很多致力於研究醫學領域AI產品的人並不打算用AI替代人類,他們只是在創造能夠幫助醫生做出更精確更高效的決策,從而提高醫療質量。能做到最佳水平的不是人類也不是電腦,而是二者的結合。

Miller在他的文章中指出,人類帶有非常多的偏見,然後對比了目前的幾種方法,來比較哪種更加糟糕。但是文章並未提出有什麼方法可以讓偏見更少,從而做出決策呢(也許用人類和演算法的結合)?總之這才是更值得考慮的、重要的問題。

演算法的使用通常和人類決策方式不同

演算法在實際中運用範圍很廣,也因此會出現很多相同的偏見,甚至被認為是正確或客觀的結果。Miller在文章中分享的研究將它們進行比較時,並沒有發現實際使用中的區別。

Cathy O』Neil在Weapons of Math Destruction一書中寫道,她所批評的那類演算法對窮人更不友好。

這些演算法專註於處理大型任務,並且使用成本低,這也是吸引人的部分原因。相反,富裕的人通常會選擇個人定製的輸入。大型公司或者貴族預科學校通常更傾向於內部推薦或者面對面的面試。有特權的人通常會由人來選拔,而普通人才靠機器選拔。

O』Neil書中的一個例子是有一位患有雙向情感障礙的大學生想在暑假時在便利店打工。他應聘的每家店都用相同的心理測量軟體來對面試者打分,所以每家店都拒絕了他。這表明了演算法的另一個危險之處,雖然人類通常會有相似的偏見,但並不是每個人都會做出同樣的決定。雖然他有精神障礙,但這位大學生也許最終會找到一個願意僱用他的店。

很多人更願意相信演算法做出的決策,而不願意相信人類的決定。而設計演算法的研究者們可能對概率和置信區間有更好的了解,而一般人不會注意到這一點。

演算法需要被解釋

很多關於演算法偏見的案例都沒有有意義的解釋或者有意義的處理過程。這看起來似乎是演算法決策過程中的特殊趨勢,也許是因為人們錯誤地認為演算法就是客觀的,所以沒有必要進行客觀分析。同時,如上面所解釋的,演算法決策系統通常是為了削減成本,重複檢查就會增加成本。

Cathy O』Neil還寫道一位老師非常受學生和家長的愛戴,但是莫名其妙就被演算法開除了。她永遠不會知道為什麼會有這樣的結果。如果我們能重新對演算法進行檢查或者了解其中的因素,就不會令人如此費解。

The Verge曾調查美國超過一半的州所使用的軟體,統計人們接收到的醫療健康服務。當這種軟體在阿肯色州使用後,很多有嚴重殘疾的人們發現他們的醫療補助突然被大幅減少。例如,一位腦癱患者Tammy Dobbs原本需要每天有人幫助她下床、去衛生間、吃飯等等,突然演算法將醫療救助時間減少到了每周20個小時。她無法解釋為什麼會這樣。最終,法院調查後發現是軟體的演算法出現了錯誤,影響了患有糖尿病或腦癱的患者。然而,像Dobbs這樣的很多人還是會擔心某一天他們的醫療補助是否會再次被削減。

演算法的創建者被問到能否有交流決策的方法,他說:「也許這是我們的責任。」但之後又稱,這可能是其他人的原因。我們不能認為自己造出來的成果是別人的責任

另一個在科羅拉多州使用的系統發現了系統中有超過900個錯誤規則,結果導致了很多問題,例如將懷孕的女性不算入需要醫療補助的計劃之內。律師們很難發現演算法中的錯誤,因為這些內部工作機制就像商業秘密一樣受保護。所以,重要的是要創建一個能輕鬆發現錯誤的機制。

複雜的真實系統

當我們談到AI,就需要想想現實世界中複雜的系統。《哈佛商業評論》中所提到的研究將決策看成孤立的行為,並沒有考慮所處的環境。判斷一個人是否會坦白其他罪行,這種決定並不是單獨做出的,它還要結合複雜的法律系統。我們有必要了解研究領域所處的真實環境是如何運作的,同時不要忽略了可能受到影響的人們。

美國法庭中所用到的COMPAS演算法是用在預審前保釋、判刑和假釋中的決策系統。ProPublica調查後發現,白人被告者的結果誤報率是24%,而黑人被告的誤報率高達45%(即被告被系統認定為「高風險」但結果卻並未再次入獄)。之後的研究發現,COMPAS還不如一個簡單的線性方程精確。

通過這些案例可以看出,演算法也許會加劇潛在的社會問題。所以我們有責任了解系統以及它們可能帶來的問題。

反偏見不等於反演算法

大多數對演算法偏見持反對意見的人,都會反對不公平的偏見,但他們不是討厭演算法的人。Miller表示,這些批評者「很少會問這些系統在沒有演算法的情況下運行得怎樣」,這表明那些反對偏見演算法的人可能並不知道人類有多少偏見,或者可能只是不喜歡演算法。在我開始撰寫有關機器學習偏見的文章之前,我花了大量時間研究和撰寫有關人類的偏見。

當我發布或分享有關偏見的演算法時,總有人認為我是反演算法或者反科技的。而且我不是唯一受到質疑的人。所以我希望有關偏見演算法的討論重點不要僅僅局限於這種微不足道的地方,我們需要深入解決這個問題。

原文地址:www.fast.ai/2018/08/07/hbr-bias-algorithms/


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 論智 的精彩文章:

Kaggle競賽方案分享:如何分辨雜草和植物幼苗
海難倖存者:基於項目的TensorFlow.js簡介

TAG:論智 |