當前位置:
首頁 > 最新 > 天啊!連AI都有種族歧視了!

天啊!連AI都有種族歧視了!

你是否也經歷過因為口音和語調而被人歧視的瞬間?一些研究者發現,一些AI系統也正在學習人類對於某一些方言系統的歧視。而當以語言為基礎的AI系統變得越來越普遍,一些少數族裔已經自動成為了被機器忽視或者看低的對象。而我們是否已經接到警告的信息要開始對這一趨勢進行必要的防控呢?

任何有著濃重或者不常見的口音的人都有可能有過被Siri或Alexa誤解的經歷。這是因為聲音識別系統是使用自然語言技術來解析話語的內容,而這種解析經常是完全依賴於人工主體收到的標準數據上的。如果某一種特定的口音或是方言並沒有足夠的樣本數據的話,這些語音識別系統過就很難聽懂他們究竟在說什麼。

這個問題比很多人意識到的都要嚴重得多。自然語言科技現在已經通過自動化後的電話系統或是chatbot支撐著與顧客的自動交流。它也被用來挖掘網路和社交媒體上的公眾意見,和梳理文本材料里的有效信息。這意味著所有基於自然語言系統的服務和產品已經開始了對於特定族群的歧視 。

Brendan O』Connor, 一個麻省大學的助理教授,和他的一個研究生,Su Lin Blodgett,調查了推特上語言的使用。在人口統計濾鏡的幫助下,他們成功搜集了 5 億 9 千萬條含有明顯美國非裔口頭禪和方言的推特。之後他們使用了數款自然語言處理工具來識別這些數據。他們隨即發現,一款非常流行的工具自信地將這些推文認定為了丹麥語。

「如果你想要了解並總結推特上人們對於某一個政客的意見,可你卻完全忽視非裔美國人說的話,亦或是年輕人發表的見解,其結果必然很不公平,這很糟糕,」O』Connor 這樣說道。

這兩人同時也研究了幾款基於機器學習的應用程序來解析某一特定文本的涵義和情感傾向。之後他們發現這些系統也有著一些問題。「如果你從某個公司購買了情緒解析器,可你卻連它裡面隱藏了怎樣的歧視都不知道。」O』Connor 質疑道,「我們並沒有關於這些方面足夠的審計資源或是知識儲備。」

他說這個問題可以擴散到任何使用語言的系統,包括搜索引擎。

關於 AI 演算法里的不公平性正在隨著AI概念的火熱而獲得更多的關注。一個叫做 Compass 的專有演算法就被認為具有一些極具社會爭議的隱形偏見。Compass 是一個協助監獄官決定監獄裡的囚犯是否可以獲得假釋的系統。雖然這一套演算法的具體工作流程還未對外公布,但是已經有研究表明它的運行結果對黑人囚犯具有歧視。

一些專家甚至說這個問題或許比大多數人知道的都要更為嚴重。它已經開始影響到了一系列經濟,醫療和教育里的決策。

麻省大學的研究者在一個工作坊中展示了他們已經進行的對於AI歧視現象的現有研究成果。這一活動,Fairness and Transparency in Machine Learning,是一個更大的數據科學大會的組成部分。但是到2018年,也就是明年,這一會議就會成為一個獨立的個體。Solon Barocas,康奈爾大學的助理教授和此次會議的主辦人之一,認為這個領域正在不斷成長。因為越來越多的研究者已經意識到並且開始著手分析AI系統的歧視問題。

Sharad Goel,一位在斯坦福大學教授演算法公平性和公公政策的助理教授,認為這一問題在大多數時候都並不能被大眾一目了然地了解到。他認為稱呼演算法有著「(下意識的)偏見」是對整個問題的過分簡化。

因為,實際上,這整個過程很有可能是人工主體基於社會現狀而做出的精確判斷,而不是在無意識或者下意識中決定的。「在決定我們想要演算法做什麼之前,我們最好先描述一下這個演算法正在做什麼,以及它這麼做的原因。」Goel 教授這樣總結道。


點擊展開全文

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 矽谷密探 的精彩文章:

AI驚艷世界的10個瞬間:10個生成式對抗系統的最佳應用
寫給女盆友的萌萌的比特幣指南
新零售來襲:傳統商業不會死
從Logic Pro,看蘋果如何布局音樂產業
德國創業公司 Lilium 收到9000萬美金來做電動飛行計程車

TAG:矽谷密探 |