當前位置:
首頁 > 最新 > AI鑒GAY:我們真的想要生活在一個看臉的世界嗎?

AI鑒GAY:我們真的想要生活在一個看臉的世界嗎?

蘋果出了Face ID,KFC有了刷臉取餐,就連上廁所,現在也可以「憑臉領紙」了。隨著人工智慧技術的發展,我們的生活似乎越來越離不開「看臉」了……

半個多月前,斯坦福大學的研究人員開發出了一個AI系統——「AI GAY 達」,號稱能夠通過看臉來判斷出一個人是不是同性戀。

沒有感情色彩的AI居然能看到我們人類都不容易辨別的問題,機器什麼時候比我們自己更了解人類了?

「AI GAY達」並不靠譜

「AI GAY達」宣稱「單從一張照片上,AI可正確鑒別男同性戀或異性戀的概率為81%,正確判斷女同性戀或異性戀的概覽為71%。如果系統提供同一個人的五張照片時,這一概率將分別升至91%和83%」。

但其實,該系統的測試過程是給AI隨機兩張照片,一張是同性戀,另一張是異性戀,讓AI判斷那張看起來更像是同性戀者。而AI最終答對的幾率是81%。這種測試其實就是簡單的二選一,所謂的準確率81%是建立在正確率50%的基礎上的。

在分辨誰更像同性戀的評判中,「AI GAY達」的表現甚至更糟。

當AI系統在1000張照片中挑選同性戀者時,有70人被選中,這一比例與美國男同性戀所佔人口比例十分相近。

但當研究人員要求AI選出最有可能是同性戀的前100名時,系統只選對了47個(本應有70個);當被要求選出前10名時,系統僅選對了9個。

所謂的百分之九十正確率的「AI鑒GAY」其實並沒有那麼準確。但準確率高了就是我們想要的嗎?

「看臉分人」=偏見+刻板印象?

「AI GAY達」確定的性向評判標準為:男性特徵更明顯的女性和女性特徵更明顯的男性為同性戀。這一評判標準顯然與社會大眾對於同性戀人群的偏見一般無二。

研究人員稱,所有訓練數據來自數十萬張約會網站的照片,沒有添加任何研究人員的主觀條件,絕對科學公正。但其實,這些數據本身就帶有一定的偏向性。

正如社會學教授Greggor Mattson所說,為了讓自己更具有吸引力,人們在社交平台上發布的內容往往帶有社會大眾的主觀傾向。

事實上,並沒有任何一項科學研究能夠證明,性取嚮應該與某些特定的生物特徵掛上鉤。「AI GAY達」鑒定依據本身就是一種對同性戀刻板印象的表現。

這個「看臉」的世界

幾個世紀以來,人們都認為面相和性格有關。18、19世紀歐美國家的偽科學「面相學」、中國的俗話「相由心生」無不證實了這一點。

去年,中國的研究團隊還曾推出了一款AI系統,宣稱能通過面部識別鑒定一個人的犯罪傾向。

在此之前,許多公司也都聲稱發明了可以能夠鑒別和發現恐怖分子和戀童癖的AI系統,這些系統也都是採用了面部識別的方法。

此前,科學家曾提出過,人們的政治傾向與不同面部特徵的關係,認為保守派政客比自由派政客更有吸引力;

在判斷智商高低問題上,也曾有學者認為,能夠通過面部掃描技術來判定;AI鑒別犯罪傾向不過是其中比較極端的研究罷了。

AI的智慧來源於人類

在推特上開了賬號的微軟聊天機器人Tay,最初的設定是一個十幾歲的女孩。然而,發布僅不到24小時,就變成了一個滿嘴髒話,集反猶太人、性別歧視、種族歧視於一身的「不良少女」。

對於AI的爭論,事實上,更多的是關於AI是否會造成偏見和歧視的問題。這次不會,那下一次呢?這個AI系統不會,那其他AI呢?

很顯然,「AI GAY達」存在著各種缺陷,但在這次事件中,我們更應該關注的是AI的局限性。我們認識到了要在AI出現負面作用之前消除它的危險,卻忽視了最開始的危險,其實來源於人類。

即使是在LGB人群得到越來越多人支持和尊重的現在,在伊朗和沙烏地阿拉伯等國,同性戀仍然受到死刑的懲罰。在車臣共和國,同性戀集中營甚至還在合法開放……

在消除機器人的偏見之前,我們首先需要消除的,其實是來自人類的偏見。

面子精選|搜羅最牛最好玩的

科技新玩意兒,新鮮事兒


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 面子精選 的精彩文章:

網友誠不欺我:香蕉+冬棗=鞋墊、84消毒液、腐屍、花大姐、餿襪子……
又出新招:特斯拉要把充電站變便利店
31歲就成教授,他發明新材料淡化海水為世界解渴
據說矽谷正流行的飲食習慣,可以延緩衰老
「共享女友」真來了,一天298元

TAG:面子精選 |