當前位置:
首頁 > 科技 > AI性別歧視有救,MIT研究人員給出減少AI預測偏差新方法

AI性別歧視有救,MIT研究人員給出減少AI預測偏差新方法

在世界每一個角落部署AI,這可能導致持續的系統性歧視,為此MIT計算機科學人工智慧實驗室(CSAIL)研究人員創造了一種減少AI偏差,同時又不降低預測結果準確性的方法。

在麻省理工學院教授David Sontag與其博士團隊一起撰寫的論文中,有這一方法的詳細解釋。據Sontag所言,傳統方法可能建議將與多數人群相關的數據集隨機化,作為解決不同人群不平等結果的一種方法,但這種方會權衡較低的預測準確性,以實現所有人群的公平性。關鍵是從代表性不足的群體中挖掘更多數據。例如,研究人員發現,在一個案例中,AI模型將女性標記為低收入,男性標記為高收入,這是有失客觀性的,因此他們通過將數據集中女性的代表性提高10倍,達到了將不準確結果的數量減少了40%的效果。

Sontag在一份聲明中給出這一設計的簡單解釋:「我們認為這是一個工具箱,可幫助機器學習工程師弄清楚他們的數據要問什麼問題,以便診斷他們的系統為什麼會做出不公平的預測。」

他進一步解釋說:「在這項工作中,我們認為預測的公平性應該在數據的背景下進行評估,並且樣本量不足或未測量的預測變數引起的不公平性應該通過數據收集來解決,而不是通過約束模型來解決。」

誠然,預測準確性的差異往往歸因於數據缺乏或不可測量的變數因素,因此該研究團隊建議在進行公平標準評論之前,對模型偏差,模型方差和結果雜訊進行AI模型分析。

對於這一研究的成本,Sontag表示,「這揭示並分離了數據收集不足和模型選擇對公平性的不利影響。為了追求公平,其成本也要納入到數據收集和模型開發的投資。但在某些十分重要的應用程序中,其好處往往超過成本。「

據悉,該成果將於下個月在蒙特利爾的神經信息處理系統(NIPS)上公布。

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 鎂客網 的精彩文章:

推動創業創新發展,南京麒麟科技城舉行項目融資對接會
谷歌 AI醫療新成果:將轉移性乳腺癌檢測準確率推向了幾乎完美的99%

TAG:鎂客網 |