亞馬遜面部識別軟體又被曝存在偏見?這回是麻省理工科學家發聲了
亞馬遜的面部分析軟體對某些種族的性別區分不如IBM和微軟的同類服務準確。
這是麻省理工學院(Massachusetts Institute of Technology)研究人員在今天發表的一項新研究中得出的結論。該研究發現,亞馬遜網路服務(Amazon Web Services)的對象檢測API應用Rekognition在特定場景下無法可靠地確定女性和深色皮膚面孔的性別。
該研究的合著者稱,在2018年進行的實驗中,Rekognition公司的面部分析特徵在19%和31%的時間裡將女性誤以為是男性,將深色皮膚的女性誤以為是男性。
相比之下,微軟誤將深色皮膚女性分類為男性的錯誤比例為1.5%。
亞馬遜反駁了這些發現。
該機構表示,在內部,在對一種最新版本Rekognition的測試中,它發現,所有種族的性別分類準確性「沒有差異」。
報告還指出,這篇論文沒有明確置信度閾值——這是在實驗中Rekognition的正確預測必須達到的最小精度。
在一份AWS深度學習和人工智慧總經理、馬特?伍德(Matt Wood)博士提供的聲明中,對面部分析——面部分析是指在視頻或圖像中識別人臉,並為其分配通用屬性——和人臉識別(能將視頻和圖像中的人臉進行匹配)進行區分。
他說,根據面部分析得出的結果,「不可能」得出面部識別的準確性,並認為這篇論文「不代表客戶將如何使用Rekognition」。
伍德說:「使用最新版本的亞馬遜Rekognition軟體,從議會網站下載的類似數據以及百萬張圖片的海量數據集,我們發現,在推薦的99%的置信閾值下,我們發現假陽性匹配的數據為零。」
「我們繼續尋求輸入和反饋,以不斷改進這項技術,並支持第三方評估、數據集和基準的創建。」
這是亞馬遜第二次因為所謂的易受偏見影響而陷入困境。
美國公民自由聯盟(American Civil Liberties Union)在今年夏天進行的一項測試中(亞馬遜對這項測試的準確性存在爭議)證明,在提供了從「公共來源」提供的2.5萬張罪犯的臉部照片,並將其與國會議員的官方照片進行對比時,Rekognition錯誤地認定了28名國會議員是罪犯。
ACLU稱,被識別為罪犯的28名議員中,40%是有色人種,然而國會議員中有色人種的比例僅為20%。
這並不是說這是一個孤立的問題。
2012年的一項研究顯示,Cognitec供應商的面部演算法在非裔美國人身上的表現比白人差5%至10%。2011年,研究人員發現,在中國、日本和韓國開發的面部識別模型難以區分白人面孔和東亞面孔。
今年2月,麻省理工學院媒體實驗室(MIT Media Lab)的研究人員發現,微軟(Microsoft)、IBM和中國公司曠視科技(Megvii)生產的面部識別軟體在膚色較淺的女性中誤認性別的比例高達7%,在膚色較深的男性中誤認性別的比例高達12%,在膚色較深的女性中誤認性別的比例高達35%。
弗吉尼亞大學(University of Virginia)的研究人員進行的另一項研究發現,ImSitu公司和COCO公司這兩家著名的研究圖像收集公司在描述體育、烹飪和其他活動時表現出性別偏見。
(例如,購物的形象與女性有關,而指導教練則與男性有關。)
也許最臭名昭著的是,2015年,一名軟體工程師報告說,Google Photos的圖像分類演算法將非裔美國人識別為「大猩猩」。
但也有令人鼓舞的進步跡象。
今年6月,微軟與人工智慧(AI)公平方面的專家合作,修訂並擴展了用於培訓人臉API的數據集。人臉API是微軟Azure API,提供用於檢測、識別和分析圖像中的人臉的演算法。
通過研究膚色、性別和年齡的新數據,研究人員能夠將膚色較深的男性和女性的錯誤率分別降低20倍和9倍。
亞馬遜方面表示,它正在不斷努力提高Rekognition的準確性,最近一次是在2018年11月進行的「重大更新」。
伍德說:「我們為這一領域的學術研究提供了資金,為我們自己的團隊進行了重大投資,並將繼續這樣做。」
「這些努力中的許多都集中在改善面部識別、面部分析、在解釋這些結果時高度置信水平的重要性、人工審核和標準化測試的作用……我們感謝為改善這些技術做出貢獻的客戶和學者。」
麻省理工學院的研究結果將於下周在夏威夷火奴魯魯舉行的人工智慧、倫理和社會會議上公布。


※2019年第2周電影票房7.11億,環比微跌1.25%,春節檔預售1.63億
※曾引爆觀影熱潮的MoviePass準備捲土重來?無限量觀影套餐或將再度上線
TAG:前瞻經濟學人APP |