當前位置:
首頁 > 知識 > AI竟然也有性別和種族歧視,人類或成幕後黑手

AI竟然也有性別和種族歧視,人類或成幕後黑手


在討論人工智慧(AI)的未來時,很多專家認為AI這種新的系統冷靜、客觀、理性、有邏輯。


但一項新的研究證明,機器其實是創造者的一面鏡子,能反映出我們自身的各種問題。



AI竟然也有性別和種族歧視,人類或成幕後黑手



圖片來源:idgconnect.com

我們自身有什麼問題?第一點,就是偏見。


什麼,你說你沒有?嘴上說的可不算。


在窺視人類的內心時,心理學家常常使用一種叫「內隱聯想測驗」的實驗方法。這種測驗會讓被試把出現在屏幕上的詞語概念進行配對,然後測量被試的反應時間。


如果被試配對的是兩個他們認為相似的概念,反應時間就會相對較短,而如果是不同的概念,反應時間則會相對較長。



AI竟然也有性別和種族歧視,人類或成幕後黑手



測試種族偏見的內隱聯想測驗一例。圖片來源:nymag.com


而由於人類的奇怪偏好(偏見),一些道德上中立的辭彙也會被截然不同地看待。花朵(例如玫瑰和雛菊)與昆蟲(比如螞蟻和蛾子)就是一個例子。人們會更快地將花的詞語和表示愉悅的概念(撫摸和愛)歸類到一起,同樣把昆蟲辭彙和表示不快的概念(比如骯髒和醜陋)歸為一類也會較快。



AI竟然也有性別和種族歧視,人類或成幕後黑手


螞蟻:???怪我咯?


而現在,偏見問題不止屬於人類了——機器們開始有樣學樣。


普林斯頓大學的Aylin Caliskan、Arvind Narayanan和巴思大學的Joanna Bryson就做了一項研究,展示了人類可能怎樣把機器「教壞」。他們發現,在利用網路上常見的人類語言進行訓練時,機器學習程序往往會學到深藏於用詞方式之中的文化偏見。


研究組設計了一個機器學習版本的內隱聯想測驗,來測試一款叫做GloVe的程序。GloVe是斯坦福大學研究者開發的一個流行開源軟體,常被用於處理人類用於交流的自然語言,比如進行在線文本搜索、圖像分類和自動翻譯。


這個演算法的厲害之處,在於它的工作方式是為語言建立數學表達式——根據語言中經常同時出現的其他辭彙將詞語的意義抽象為一系列的數字。這種方式能準確提取辭彙豐富的文化和社會含義,做到了傳統的字典定義永遠做不到的事情。很多人認為,該技術發展的下一步自然就是讓機器發展出像人類一樣的能力,比如說,常識和邏輯。


但看起來,它首先學到了比較靠近糟粕的部分……


研究者把GloVe程序釋放到包含8400億單詞的巨量網路搜索內容當中,看它能學到些什麼。然後,Narayanan和同事們分析了諸如「程序員、工程師、科學家」或「護士、老師、圖書管理員」這樣的「目標辭彙」與「男人,男性」和「女人,女性」這些性別辭彙之間的關係。



AI竟然也有性別和種族歧視,人類或成幕後黑手



結果,他們既發現了沒有惡意的無辜偏見,比如上述花朵和昆蟲的區別,也觀察到了種族和性別偏見的例證。這些偏見和人類被試在過去幾年在內隱聯想測驗中表現出來的如出一轍。

例如,機器學習程序認為女性的名字和與家庭相關的辭彙,比如「父母」和「結婚」有著更強的聯繫,而男性的名字則不然。同樣,男性的名字和職業特性,比如「專業人士」和「薪水」有更強的聯繫。


當然,這樣的結果通常是真實職業性別不平等劃分的客觀反映,比如說,根據美國勞工統計局的數據,77%的程序員都是男性。


可儘管這種關於職業的偏見是通過正確方式得出的,它也可能會造成性別歧視的惡果。比如說,如果機器學習程序機械地處理外語,就可能得到帶有性別刻板印象的句子:



AI竟然也有性別和種族歧視,人類或成幕後黑手



「他是醫生」,「她是護士」。圖片來源:the Office of Engineering Communications


在土耳其語中,有一個中性的第三人稱代詞「o」。然而在谷歌翻譯自動翻譯成英語時,土耳其語中帶有這個中性代詞的句子「o bir doktor」和「o bir hem?ire」有了性別的區分,變成了「他是醫生」和「她是護士」。


2004年的一篇論文也提供了另一個例子:兩位經濟學家向一千三百個職位發出了五千份同樣的簡歷,唯一的變數是申請人的名字——或者是傳統歐美人的名字,或者是非裔美國人的名字。結果,前者比後者得到工作的可能性要高50%。


這種種族偏見在普林斯頓大學的這項新研究中也得到了證實:與歐美人的名字相比,非裔美國人的名字與表示不快的辭彙有更強的聯繫。


事實上,這些「傳染」給機器的人類偏見還有更嚴重的影響:據獲得2017年普利策獎提名的ProPublica記者報道,美國法院系統廣泛使用的罪犯風險評估系統往往會機械地將少數族裔視為犯罪高危人群,導致對他們的量刑更重。

可是,這是AI的錯嗎?


作為研究者之一,Bryson在接受《衛報》採訪時說:「很多人都說,這說明AI也有偏見。他們錯了。這只是說明我們人類具有偏見,然後AI學到了這一點。」


但她同時警告說,AI有可能會強化現存的偏見,因為演算法不像人類,並沒有意識去抵制這種習得的偏見。


「程序員設計系統時,很容易忽視我們研究的這些偏見。」另一作者Narayanan說,「我們社會中存在的偏見和刻板印象會在語言中反映出來,它們既複雜又頑固。我們不應該簡單地屏蔽或清除它們,而是應該把這些偏見作為語言的一部分,在機器學習中建立一種明確的方法,決定我們認為什麼可以接受,什麼不能接受。」



AI竟然也有性別和種族歧視,人類或成幕後黑手



「這篇論文重新強調指出,雖然機器學習的方法依據是數學和演算法,但它們並非完全客觀、沒有偏見。與此相反,只要它們使用來自社會的數據進行訓練,只要社會上還存在偏見,這些方法就很可能會重現這些偏見。」微軟紐約研究院高級研究員Hanna Wallach評論說。


能怎麼辦?程序員可能會希望給機器學習程序及AI系統設計精確的數學指令,以阻止文化刻板印象的流傳。


這就像家長和老師們一樣,想要把平等和公平的概念傳輸給孩子和學生,程序員也會希望機器反映出的是人類天性中更好的一面。


可問題是,誰能決定究竟什麼才是更好的一面?

信息來源:


https://phys.org/news/2017-04-biased-bots-human-prejudices-artificial.html


http://science.sciencemag.org/content/356/6334/183


https://www.theguardian.com/technology/2017/apr/13/ai-programs-exhibit-racist-and-sexist-biases-research-reveals


http://www.pulitzer.org/finalists/julia-angwin-jeff-larson-surya-mattu-lauren-kirchner-and-terry-parris-jr-propublica

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 果殼網 的精彩文章:

《金剛》還在翻拍,真正的巨猿卻連骨頭都沒剩多少
看,方糖築起了白色高塔
為了找出讀夢的訣竅,他們鍥而不捨地把人叫醒
在地上挖一個洞就能融化鋁,還能鑄造各種金屬玩具!
75萬個小朋友,WHO喊你過來扎一針

TAG:果殼網 |

您可能感興趣

為何AI也學會了種族和性別歧視?
不只性別、種族歧視,AI可能還會「嫌貧愛富」
「三無」黑人必須剷除!全球黑人泛濫成災,種族歧視究竟是對是錯
玻璃心還是種族歧視?黑人在動漫中也成為了禁忌?
人類數據暗藏性別歧視,我們還拿它訓練AI?
同樣是衝鋒槍差別怎麼那麼大,彈藥種類真的能成為歧視的條件么?
把女人變成漢子,是不是這個社會最大的性別歧視?
男子因踩了黑人小哥的AJ球鞋被暴打!原因竟是殘酷的種族歧視
「澳洲沒種族歧視!如果有,也是歧視白人!」
健美黑幕?因質疑IFBB存在種族歧視而被終身禁賽!
為什麼黑人要面臨嚴重的種族歧視?黑人的錯還是我們的錯?
AI也有種族歧視?研究:自動駕駛較容易撞上黑人
中國人有針對白人的種族主義或歧視嗎?我相信有,但很少
亞馬遜人臉識別技術被質疑有種族歧視
籃球場上也有性別歧視,為何受傷害的總是女人?
「大樓不許住黑人」是「種族歧視」還是事出有因,膚色真的有這麼重要嗎?
圖拉姆:正因有像博努奇一樣的人,反種族歧視才毫無進展
AI也會性別歧視嗎?
老照片:比種族歧視還要可怕的南非種族隔離制度,上廁所都要分類
因為種族歧視而退出國家足球隊,忍無可忍無需再忍,這樣才是漢子