當前位置:
首頁 > 科技 > AI歧視有救了,研究人員開發出消除AI偏見的新工具

AI歧視有救了,研究人員開發出消除AI偏見的新工具

7月12日消息,相信很多人對於人工智慧存在偏見和歧視早有耳聞,但你聽說過利用人工智慧檢測性別和種族歧視嗎?日前,來自賓夕法尼亞州立大學和哥倫比亞大學的一個研究小組發明了一種新的人工智慧工具,可以識別基於性別或種族的不平等待遇。

人工智慧系統,比如那些參與選擇求職者或者大學入學者的系統,是基於大量數據進行訓練的。但如果這些數據存在偏見,它們會影響人工智慧系統的推薦結果。

賓夕法尼亞州立大學信息科學與技術學院教授Vasant Honavar舉例說,如果一家公司傳統上從未聘用過女性從事某一特定工作,那麼基於過去數據的人工智慧系統就不會推薦女性從事新工作。

他表示,機器學習演算法本身沒有什麼問題。它做的是它應該做的,那就是根據某些理想的特徵來識別優秀的求職者。但由於它是根據歷史上有偏見的數據進行訓練的,因此有可能給出不公平的建議。

為解決這一問題,研究人員開發了一種人工智慧工具,用於識別人工智慧系統或人類決策者對受保護屬性(如性別或種族)的歧視,該工具基於因果關係的概念,即一件事(一個原因)導致另一件事(一個結果),同時利用反事實推理演算法來達到最優猜測。

為了測試他們的方法,研究人員使用了不同類型的可用數據。在分析了美國近5萬人的收入數據集,其中包括工資、人口統計和與就業有關的信息後,他們發現了工資中存在性別歧視的證據。此外,研究人員還分析了紐約市警方攔截司機的人口統計數據和其他數據,的確暴露了對非洲裔美國人和西班牙裔美國人存在潛在種族歧視的證據。

Vasant Honavar指出,「如果不知道問題的存在,就無法糾正問題。為了避免基於種族、性別或其他屬性的歧視,需要一個有效的工具來檢測歧視。」

文明社會長期關注的是防止基於性別,種族或民族的個人受到不公平對待。不過,無論是通過自動化人工智慧系統還是人類決策,都很難發現因決策而產生的這種歧視。可以說,此次,該研究小組的最新成果為消除AI偏見提供了一個很好的思路。

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 天極網 的精彩文章:

小米再出面回應Mimoji抄襲蘋果Memoji:2018年時就叫這個
Facebook創建逼真的虛擬環境,以提升智能體的導航能力

TAG:天極網 |