當前位置:
首頁 > 知識 > AI竟然也有性别和种族歧视,人类或成幕后黑手

AI竟然也有性别和种族歧视,人类或成幕后黑手


在讨论人工智能(AI)的未来时,很多专家认为AI这种新的系统冷静、客观、理性、有逻辑。


但一项新的研究证明,机器其实是创造者的一面镜子,能反映出我们自身的各种问题。



AI竟然也有性别和种族歧视,人类或成幕后黑手



图片来源:idgconnect.com

我们自身有什么问题?第一点,就是偏见。


什么,你说你没有?嘴上说的可不算。


在窥视人类的内心时,心理学家常常使用一种叫「内隐联想测验」的实验方法。这种测验会让被试把出现在屏幕上的词语概念进行配对,然后测量被试的反应时间。


如果被试配对的是两个他们认为相似的概念,反应时间就会相对较短,而如果是不同的概念,反应时间则会相对较长。



AI竟然也有性别和种族歧视,人类或成幕后黑手



测试种族偏见的内隐联想测验一例。图片来源:nymag.com


而由于人类的奇怪偏好(偏见),一些道德上中立的词汇也会被截然不同地看待。花朵(例如玫瑰和雏菊)与昆虫(比如蚂蚁和蛾子)就是一个例子。人们会更快地将花的词语和表示愉悦的概念(抚摸和爱)归类到一起,同样把昆虫词汇和表示不快的概念(比如肮脏和丑陋)归为一类也会较快。



AI竟然也有性别和种族歧视,人类或成幕后黑手


蚂蚁:???怪我咯?


而现在,偏见问题不止属于人类了——机器们开始有样学样。


普林斯顿大学的Aylin Caliskan、Arvind Narayanan和巴思大学的Joanna Bryson就做了一项研究,展示了人类可能怎样把机器「教坏」。他们发现,在利用网络上常见的人类语言进行训练时,机器学习程序往往会学到深藏于用词方式之中的文化偏见。


研究组设计了一个机器学习版本的内隐联想测验,来测试一款叫做GloVe的程序。GloVe是斯坦福大学研究者开发的一个流行开源软件,常被用于处理人类用于交流的自然语言,比如进行在线文本搜索、图像分类和自动翻译。


这个算法的厉害之处,在于它的工作方式是为语言建立数学表达式——根据语言中经常同时出现的其他词汇将词语的意义抽象为一系列的数字。这种方式能准确提取词汇丰富的文化和社会含义,做到了传统的字典定义永远做不到的事情。很多人认为,该技术发展的下一步自然就是让机器发展出像人类一样的能力,比如说,常识和逻辑。


但看起来,它首先学到了比较靠近糟粕的部分……


研究者把GloVe程序释放到包含8400亿单词的巨量网络搜索内容当中,看它能学到些什么。然后,Narayanan和同事们分析了诸如「程序员、工程师、科学家」或「护士、老师、图书管理员」这样的「目标词汇」与「男人,男性」和「女人,女性」这些性别词汇之间的关系。



AI竟然也有性别和种族歧视,人类或成幕后黑手



结果,他们既发现了没有恶意的无辜偏见,比如上述花朵和昆虫的区别,也观察到了种族和性别偏见的例证。这些偏见和人类被试在过去几年在内隐联想测验中表现出来的如出一辙。

例如,机器学习程序认为女性的名字和与家庭相关的词汇,比如「父母」和「结婚」有着更强的联系,而男性的名字则不然。同样,男性的名字和职业特性,比如「专业人士」和「薪水」有更强的联系。


当然,这样的结果通常是真实职业性别不平等划分的客观反映,比如说,根据美国劳工统计局的数据,77%的程序员都是男性。


可尽管这种关于职业的偏见是通过正确方式得出的,它也可能会造成性别歧视的恶果。比如说,如果机器学习程序机械地处理外语,就可能得到带有性别刻板印象的句子:



AI竟然也有性别和种族歧视,人类或成幕后黑手



「他是医生」,「她是护士」。图片来源:the Office of Engineering Communications


在土耳其语中,有一个中性的第三人称代词「o」。然而在谷歌翻译自动翻译成英语时,土耳其语中带有这个中性代词的句子「o bir doktor」和「o bir hem?ire」有了性别的区分,变成了「他是医生」和「她是护士」。


2004年的一篇论文也提供了另一个例子:两位经济学家向一千三百个职位发出了五千份同样的简历,唯一的变量是申请人的名字——或者是传统欧美人的名字,或者是非裔美国人的名字。结果,前者比后者得到工作的可能性要高50%。


这种种族偏见在普林斯顿大学的这项新研究中也得到了证实:与欧美人的名字相比,非裔美国人的名字与表示不快的词汇有更强的联系。


事实上,这些「传染」给机器的人类偏见还有更严重的影响:据获得2017年普利策奖提名的ProPublica记者报道,美国法院系统广泛使用的罪犯风险评估系统往往会机械地将少数族裔视为犯罪高危人群,导致对他们的量刑更重。

可是,这是AI的错吗?


作为研究者之一,Bryson在接受《卫报》采访时说:「很多人都说,这说明AI也有偏见。他们错了。这只是说明我们人类具有偏见,然后AI学到了这一点。」


但她同时警告说,AI有可能会强化现存的偏见,因为算法不像人类,并没有意识去抵制这种习得的偏见。


「程序员设计系统时,很容易忽视我们研究的这些偏见。」另一作者Narayanan说,「我们社会中存在的偏见和刻板印象会在语言中反映出来,它们既复杂又顽固。我们不应该简单地屏蔽或清除它们,而是应该把这些偏见作为语言的一部分,在机器学习中建立一种明确的方法,决定我们认为什么可以接受,什么不能接受。」



AI竟然也有性别和种族歧视,人类或成幕后黑手



「这篇论文重新强调指出,虽然机器学习的方法依据是数学和算法,但它们并非完全客观、没有偏见。与此相反,只要它们使用来自社会的数据进行训练,只要社会上还存在偏见,这些方法就很可能会重现这些偏见。」微软纽约研究院高级研究员Hanna Wallach评论说。


能怎么办?程序员可能会希望给机器学习程序及AI系统设计精确的数学指令,以阻止文化刻板印象的流传。


这就像家长和老师们一样,想要把平等和公平的概念传输给孩子和学生,程序员也会希望机器反映出的是人类天性中更好的一面。


可问题是,谁能决定究竟什么才是更好的一面?

信息来源:


https://phys.org/news/2017-04-biased-bots-human-prejudices-artificial.html


http://science.sciencemag.org/content/356/6334/183


https://www.theguardian.com/technology/2017/apr/13/ai-programs-exhibit-racist-and-sexist-biases-research-reveals


http://www.pulitzer.org/finalists/julia-angwin-jeff-larson-surya-mattu-lauren-kirchner-and-terry-parris-jr-propublica

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 果壳网 的精彩文章:

只看封面,你绝对猜不出这些「文艺」浮世绘下是本什么书!
这位少年,用最弱的鲤鱼王通关了游戏!进入名人堂时全网震惊
「狸猫换太子」里的狸猫,竟是中国曾有过的、唯一的纯种猫!
买鞋时老能见到的「大耳朵狗」,对就那个苦瓜脸的!它叫啥?

TAG:果壳网 |

您可能感興趣

生命都需要“水和氧”?这一重大发现可能改变人类对生命的认知
LV豪华棺材、钻石做指甲油,人类为了奢侈到底能作到什么地步?
一代人兴许会看错,而整个人类不会看错
辩论!哪部动画可以代表人类动画史的最高水平?
1000万年后,人类仍然存在的可能性有多大?
OpenAI宣布全面投入通用AI,四大原则确保人类免于毁灭
火星上有生命吗?科学家称只需几年时间人类就可以解开这个谜题
破译人类大脑密码,中国科学家再获重大突破
人类消失1万亿年后,地球会怎样?
霍金生前说出一个大秘密:人类2045年人类永生不死