當前位置:
首頁 > 新聞 > 不只性別、種族歧視,AI可能還會「嫌貧愛富」

不只性別、種族歧視,AI可能還會「嫌貧愛富」

長期以來,對AI偏見的擔憂一直是業內重點討論的話題。以前這方面討論多集中在性別歧視、種族歧視問題上,如今又有研究發現,包括谷歌、微軟和亞馬遜等科技巨頭推廣的物體識別演算法,都存在對來自低收入國家的物品時識別表現更差的現象。

這是Facebook AI實驗室進行的一項新研究的結果,該研究表明,AI偏見不僅會重現國家內部的不平等,還會重現國家之間的不平等。

在這項研究中,研究人員測試了5種流行的現成物品識別演算法——微軟Azure、Clarifai、谷歌Cloud Vision、亞馬遜reko和IBM Watson——以了解每個程序識別全球數據集中各種家庭物品的能力。

數據集包括117個類別(從鞋子到肥皂再到沙發),並以不同的家庭收入和地理位置(例如月收入27美元的蒲隆地家庭和月收入1090美元的烏克蘭家庭)作了區分。

研究人員發現,與月收入超過3500美元的家庭相比,在識別月收入50美元的家庭物品時,演算法出錯的幾率一下子高出了10%左右。而在準確性上的絕對差異甚至更大:與索馬利亞和布吉納法索家庭的物品相比,這些演算法在識別來自美國的物品方面要高出15-20%。

研究作者表示,他們在「一系列商用雲服務的圖像識別演算法中得出了一致結論」。

這種偏見有很多潛在原因,最常見的解釋是,用於創建演算法的培訓數據往往反映了相關工程師的生活和背景。而由於這些人通常是來自高收入國家的白人男性,他們教授的課程所要識別的世界也是如此。

研究作者分析,有幾個可能的原因導致了這種現象:第一,用於創建系統的訓練數據受地理限制,第二,演算法本身無法識別文化差異。他表示,視覺演算法的訓練數據主要來自歐洲和北美,而「在人口眾多的地理區域,特別是非洲、印度、中國和東南亞,對視覺場景的採樣嚴重不足」。

人工智慧偏見最著名的例子之一是面部識別演算法,這種演算法在識別女性面孔時,通常表現得更差,尤其是有色人種女性。這種偏見會滲透到各種各樣的系統中,從計算假釋的演算法,到即將到來的面試前評估簡歷的演算法。

還有一種情況是,大多數圖像數據集使用英語名詞作標記,並收集相應的數據。然而,某樣存在於某個地區的東西,在別的地方可能並不存在,也有可能出現同樣名字對應在不同國家對應不同事物的情況。比如說「dish soap」這個英語單詞,直譯為洗碗皂,在一些國家指的是一種肥皂,但在某一些國家,「洗碗皂」卻是一種液體容器。

這項研究結果說明什麼?首先,這意味著任何使用這些演算法創建的系統對於低收入和非西方國家的人來說都會表現得更差。由於美國科技公司在AI領域處於世界領先地位,這可能會影響到從照片存儲服務和圖像搜索功能,到動安全攝像頭和自動駕駛汽車等系統的方方面面。

這還可能只是冰山一角。行業對視覺演算法的偏見已經有了警惕,但創建這些程序的渠道同樣也在為整個行業提供演算法,而一些不受重視的演算法可能永遠不會受到懷疑。

總而言之,矽谷經常把自己的產品——尤其是近年來的AI產品——宣傳為人人平等、人人可得。但類似的研究表明,科技公司繼續按照自己的形象評估、定義和塑造世界。

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 前瞻經濟學人APP 的精彩文章:

緊鑼密鼓!NASA火星直升飛機將獲發射批准,只為趕上明年火星任務
最高搭載GTX 1650顯卡!三星Notebook 7系列筆記本送上兩大「驚喜」:好、貴!

TAG:前瞻經濟學人APP |