當前位置:
首頁 > 科技 > AI也會有性別歧視?其實都是人類惹的禍

AI也會有性別歧視?其實都是人類惹的禍

AI也會有性別歧視?其實都是人類惹的禍



這是36氪推出的晨間欄目「潮科技」。我們將篩選國內外科技公司的最新技術、潛力公司的酷產品、在實驗室茁壯成長的新概念展現給大家。潮科技,又潮又有趣。

這些都是從人類文本里學來的。


作者丨譚菲君


編輯 傅博


在過去的幾年中,Google翻譯等程序解讀語言的能力大大提高,Google甚至正在開發演算法對思想進行編碼,嘗試希望十年內可以使得計算機具有「常識」。

這得益於大量可用的在線文本數據和新的機器學習技術。在AlphaGo接連斬落棋壇大神的今天,人們欣喜地看到了這些年來人工智慧飛躍式的進步。

AI也會有性別歧視?其實都是人類惹的禍



AlphaGo和李世石的比賽


然而,讓我們感到擔憂的是,隨著機器學習越來越擁有類似於人類的語言能力,它們也吸收了人類語言使用模式中根深蒂固的偏見和歧視。

日前,普林斯頓大學計算機科學家Arvind Narayanan在Science雜誌上發表題為《Semantics derived automatically from language corpora contain human-like biases》(語料庫自動導出的語義中包含人類偏見)的論文,認為人工智慧已經正在從文本學習中獲得人類潛在的種族和性別偏見。


這篇文章重點介紹了一種被稱為「詞語嵌入」的機器學習工具,它已經在改變計算機解釋語言和文本的方式。


根據Arvind Narayanan是的解釋,他們選擇學習「辭彙嵌入」的一個主要原因是這項技術在過去幾年裡在幫助電腦理解語言方面取得了驚人的成功。


「詞語嵌入」將詞的含義分解為一系列的數據(稱為「單詞向量」),通過分析詞語出現的頻率以及構建的數學模型來進行深度學習。


然而,令人驚訝的是,這種純粹的統計學方法似乎也捕捉到了辭彙背后豐富的文化和社會背景。

AI也會有性別歧視?其實都是人類惹的禍



例如,在數學模型構建的「語言空間」中,「花朵」的詞意與「愉悅」相聯繫, 而「昆蟲」更接近於與不愉快的詞語相關聯。這更像是人們對於這兩個詞意的主觀情緒在AI上面的映射。


Arvind Narayanan的這篇文章還表明,心理學實驗中一些更令人不安的隱含偏見也很容易被演算法所習得。譬如說, 「女性」這個詞大多與藝術、人文職業以及家庭關係密切,而「男性」這個詞更接近於數學和工程專業的範疇。

更讓人驚訝的是, AI系統更有可能將歐洲與美國人的名字與諸如「禮物」或「快樂」等積極愉快的辭彙聯繫起來,而非裔美國人的名字更常見於與不愉快的話語相關聯。

AI也會有性別歧視?其實都是人類惹的禍



翻譯工具


機器演算法的偏見歧視並不是一個嶄新的問題。早在20世紀70、80年代,英國的聖喬治醫學院就使用電腦程序對申請人資料進行初步篩選。


該計劃模擬了過去錄取人員的選擇模式,而結果拒絕的60位左右的申請人大多是婦女或擁有非歐洲人的名字。


英國的種族平等委員會最終決斷,聖喬治醫學院在這場招生過程中存在種族和性別歧視。


這既不是演算法的疏忽大意,更不是程序員們的惡意操作,而是人類心底根深蒂固的「偏見」無法抹除,而計算機程序加劇了這個問題,並給了它看似客觀的外套。

AI也會有性別歧視?其實都是人類惹的禍



這正如文章的聯合作者、巴斯大學的計算機科學家Joanna Bryson所說:


很多人都在說這個實驗的結果表明AI是有偏見的。不,這正顯示出我們是有偏見的,而AI正在學習它。


Bryson還警告說,AI的學習能力會潛在地加強現有的偏見。與人類大腦不同,演算法本身可能無法有意識地抵消這樣一種習得的偏見。


談及如何修正AI習得的偏見,文章的另一位聯合作者Caliskan提出,解決方案並不一定要改變AI學習的演算法。AI只是客觀地通過演算法捕捉到我們生活的世界, 只是我們的世界裡充滿了歧視與偏見。改變演算法的方式只會使其效果更差。


相反,我們可以從另一端入手,修正AI演算法學習之後的成果,讓它在二次學習後不斷習得人類的道德觀念。


例如,在使用Google翻譯的時候,你就可以對它進行調整,改善AI翻譯的質量:如果你看到「醫生」總是翻譯成「他」,而「護士」總是被翻譯成「她」,你可以身體力行地作出改變。


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 E蕪湖 的精彩文章:

TAG:E蕪湖 |

您可能感興趣

AI也會性別歧視嗎?
人類數據暗藏性別歧視,我們還拿它訓練AI?
不只性別、種族歧視,AI可能還會「嫌貧愛富」
籃球場上也有性別歧視,為何受傷害的總是女人?
為何AI也學會了種族和性別歧視?
我們不僅對別人有歧視心理,對自己也有歧視現象,你相信嗎?
「澳洲沒種族歧視!如果有,也是歧視白人!」
不點開你不會知道,人類對狗也有「膚色歧視」
搞笑漫畫:這種性別歧視,我是最不能接受的!
還有一點自尊心的中國人,會接受這樣種族歧視的「歡迎」嗎
「大樓不許住黑人」是「種族歧視」還是事出有因,膚色真的有這麼重要嗎?
時尚的「另類」不能說是歧視,人各有愛,用奇怪形容更恰當
為什麼黑人要面臨嚴重的種族歧視?黑人的錯還是我們的錯?
女模就低人一等?被男性攝影師騷擾、歧視,她們都有過這樣的經歷
為什麼說「歧視他人」有時是必需的?
如果數據也帶有種族歧視,我們該怎麼做?
中國人有針對白人的種族主義或歧視嗎?我相信有,但很少
內地人在香港語言不通受歧視嗎?其實只是大多人有過的誤解
不要歧視泰國的「人妖」了!因為他們背後竟是有著如此心酸的故事
J家也有地域歧視??都怪他們太會做梗……