當前位置:
首頁 > 最新 > 演算法有偏見?比人強就行!

演算法有偏見?比人強就行!

大數據文摘出品

編譯:倪倪、陳同學、Alieen

在討伐演算法導致的偏見和產生的作用時,更重要的問題是:與完全沒有使用演算法的情況相比是怎樣的?我們應該比較演算法的缺陷與人類的缺陷,而不是簡單地詢問演算法是否存在缺陷。

一場革命正在悄然進行。

這場革命與大部分新聞報道中出現的人工智慧的進展有所不同。

新聞媒體往往聚焦於感知型機器人軍團的重大發展,而更重要的角逐是在全國各類機構傳統人為決策過程中展開,很顯然,自動化比重正在穩步增加。

不同於AlphaGo Zero這樣佔據頭條新聞的先進成果,這場革命通過相當傳統的機器學習和統計技術如普通最小二乘法、邏輯回歸、決策樹等,為許多組織創造了真正的價值。

這些技術應用的領域是很廣泛的,包括醫療診斷、司法判決、公共機構的專業招聘和資源分配等。

這場革命是好事嗎?

似乎有越來越多的作者、學者和記者給予否定的回答。這一類型的書包括《數學毀滅武器》,《自動化不平等》和《黑匣子協會》等。還有一連串的曝光式長篇文章,如「機器偏差」,「緊縮是一種演算法」,「演算法是否在構建種族主義的新基礎設施?」等。

人們關注的焦點是,演算法通常是不透明、有偏差並且難以解釋的工具,而這樣的工具正在被權利組織加以利用。那麼,對於演算法逐漸上升的決策地位,人類需不需要感到擔憂呢?

這些批評和調查往往很具有洞察力和啟發性,並且成功地讓人們認為「演算法是完全不受主觀影響」是不可能的。但是這些批評者之間存在一種模式,即他們很少會探討他們分析的系統在沒有演算法參與的情況下運行得如何。

對於從業者和政策制定者而言,這是最相關的問題:演算法導致的偏見和產生的作用,與完全沒有使用演算法的情況相比是怎樣的?我們應該比較演算法的缺陷與人類的缺陷,而不是簡單地詢問演算法是否存在缺陷。

研究結果怎麼說?

關於演算法決策的大量研究可以追溯到幾十年前。與這一主題相關的研究都得出了一個非常相似的結論:演算法比他們所取代的人類更少偏見、更準確。

下面是一個研究樣本,調查了當演算法控制了傳統上由人類執行的任務時會發生什麼:

2002年,一個經濟學家團隊研究了自動承保演算法對抵押貸款行業的影響。他們的主要發現是「[自動承保]系統比手動承銷商更準確地預測違約」並且「提高了預測借款批准率的準確性,特別是對於通常服務不到的申請人。」在傳統的方法中,資源匱乏的消費者往往被邊緣化;但演算法系統使這部分消費者受益最多。

Bo Cowgill來自哥倫比亞商學院(Columbia Business School),他在研究一家軟體公司的工作申請篩選演算法的效果時得出了類似的結論。當公司通過演算法來決定哪些申請人應該接受面試時,演算法實際上比人類篩選者更喜歡「非傳統」候選人。與人類相比,該演算法對公司中代表性不足的候選人(例如沒有個人引薦或沒有擁有名牌大學的學位)的偏見顯著偏少。

在紐約市審前保釋聽證會中,一支由著名計算機科學家和經濟學家組成的團隊判定,與目前作出保釋決定的法官相比,演算法有可能實現更為公平的決策,「監禁率減少高達41.9%,犯罪率沒有增加」。他們還發現,在他們的模型中,「所有類別的犯罪,包括暴力犯罪中,都顯示出監禁率的降低。這些成果可以在減少種族差異的過程中同時實現。」

《紐約時報》雜誌最近報道了一個長篇故事來回答這個問題,「演算法可以判斷孩子何時處於危險之中嗎?」

事實證明答案是肯定的,並且演算法可以比人類更準確地執行這項任務。有些政府服務加劇了種族偏見,而「阿勒格尼郡的經驗表明,它的篩選工具在權衡偏見方面不像人類篩選者那麼糟糕」。

最後一個例子是,一個由財務教授組成的團隊開始通過查看公開交易公司的歷史數據構建演算法,為特定公司選擇最佳董事會成員。研究人員發現公司在由演算法選擇的董事會的管理下業績更好,而且與他們提出的演算法相比,「沒有演算法的公司傾向於選擇擁有龐大的社交網路與豐富的董事會經驗、目前在董事會參與更多、具有財務背景的男性董事。」

在每個案例研究中,數據科學家都做了一件看起來驚人事情:他們根據過去的數據訓練他們的演算法,而這些數據肯定會受到歷史偏見的影響。所以這是怎麼回事呢?

在很多不同的領域 ——信用申請、工作篩選、刑事司法、公共資源分配和公司治理 ,演算法都可以減少偏見;但為什麼許多評論家和批判者告訴我們的卻正好相反呢?

人類是非常糟糕的決策者

我們可以看到,上述提到的演算法實際上是存在偏見的,但它們正在取代的人類顯然有更大的偏差。畢竟,如果不是一直被人為控制,制度偏見從何而來?

人類是糟糕到極點了么?也不盡然。雖然存在著偏見,但在某些維度上看,我們也做過一些較好的決策。不幸的是,近幾十年來,判斷和決策方面的心理學研究已經一次又一次地證明了人類在各種背景下的判斷非常糟糕。我們至少在20世紀50年代就已經知道,在預臨床環境中的重要結果方面,非常簡單的數學模型就已優於所謂的專家。

在上面提到的所有例子中,人類決策者的表現並不好,用演算法取代他們既提高了準確性,又降低了制度偏差。這就達到了經濟學家所說的帕累托改進,即一項政策在我們關心的每一個方面上都有更優越的表現。

雖然許多批評者喜歡暗示前沿公司以犧牲公平和公正為代價來追求運營效率和更高的生產力,但當前的證據都表明其實沒有這樣的讓步。演算法可以提供更高效,更公平的結果。

如果有什麼事情會讓你感到驚恐,那麼應該是這樣一個事實:我們的許多重要決策是由前後矛盾的,有偏見的,非常糟糕的決策者做出的。

改善現狀

當然,我們應該盡一切努力消除制度偏見及其對決策演算法的有害影響。對演算法決策的批評催生了機器學習的研究的新浪潮,人們更加重視演算法的社會和政治後果。

統計學和機器學習中出現了一些新技術,專門用於解決演算法歧視問題。每年甚至還有一次學術會議(https://www.fatml.org),研究人員不僅討論機器學習的倫理和社會挑戰,而且還提出了確保演算法對社會產生積極影響的新模型和新方法。

隨著深度學習等不太透明的演算法變得越來越普遍,這項工作可能會變得更加重要。 即使技術不能完全解決制度偏見和偏見歧視的社會弊端,這裡所回顧的證據表明,在實踐中,它在改善現狀方面發揮著微小但重要的作用。

這不是在鼓吹演算法絕對主義或對統計力量的盲目信仰。如果我們在某些情況下發現演算法與當前的決策過程相比具有不可接受的高度偏差,那麼接受這樣的結果並維持人類決策現狀也不會造成任何損害。

但是,維持現狀也是有利有弊。

我們應該承認,在某些情況下,演算法將會為減少制度偏見起到一些作用。因此,下次當您讀到有關演算法偏差風險的標題時,請記得冷靜下來,並想一想人類偏見帶來的危險是否會更嚴重。

相關報道:

https://hbr.org/2018/07/want-less-biased-decisions-use-algorithms

大數據文摘編輯部招人啦!

地處宇宙中心(五道口)

和最聰明的腦袋一起玩耍

擇個黃道吉日加入我們~

【今日機器學習概念】

Have a Great Definition

Contributors

回復「志願者」加入我們


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 大數據文摘 的精彩文章:

信息爆炸的時代,如何成為更高效的學習者?
教機器遺忘或許比學習更重要:讓AI健忘的三種方式

TAG:大數據文摘 |