當前位置:
首頁 > 新聞 > 亞馬遜人臉識別技術Rekognition被爆種族歧視

亞馬遜人臉識別技術Rekognition被爆種族歧視

【獵雲網(微信號:ilieyun)】1月28日報道(編譯:一晌貪歡)

與IBM、微軟的同類技術相比,亞馬遜的人臉分析軟體分辨某些人種性別的正確率較低。這是麻省理工學院(MIT)研究人員在近日發表的一項新研究中得出的結論,該研究發現,在特定情況下,Rekognition(亞馬遜圖像識別技術)無法可靠地辨別女性和深膚色人群。

該項研究的合著者稱,在2018年進行的實驗中,Rekognition錯誤地將19%的女性圖像識別為男性,將31%的深膚色女性圖像識別為男性。相比之下,微軟在識別深色皮膚人群性別時,將女性錯認為男性的比例只有1.5%。

亞馬遜對這項研究提出質疑。它表示,Rekognition升級版的內測結果顯示,該技術對於識別性別的正確率不存在人種差異。此外,亞馬遜認為這篇論文沒有清楚地說明在實驗中使用的置信度閾值,即Rekognition的判斷被認為是正確而必須達到的最低精確度。

在給外媒的一份聲明中,亞馬遜雲服務平台深度學習和人工智慧總經理馬特·伍德博士(Matt Wood)對面部分析和面部識別這兩個概念進行了區分:面部分析指的是在視頻或圖像中辨認出臉部,並確定其一般屬性;而面部識別是將單個人臉與其它視像中的人臉相匹配。他說,根據「面部分析」的結果來判斷「面部識別」的準確性是「不可行的」,而且他認為這篇論文所談論的和「客戶如何使用Rekognition」是兩回事。

伍德博士說:「使用最新版本的Rekognition,從議會網站和Megaface人臉資料庫下載百萬張圖像數據,我們發現,置信度閾值設置為0.99時,誤報數為零。我們通過錄入和反饋來不斷改進這項技術,且支持創建第三方評估、數據集、衡量基準。」

這是亞馬遜第二次被質疑Rekognition存在偏見。

上一次在今年夏天,美國公民自由聯盟(American Civil Liberties Union)對Rekognition進行了一項測試(亞馬遜質疑該測試的準確性):把25000張罪犯面部照片和國會議員的官方照片進行比較。結果Rekognition將28名議員誤判成罪犯,其中有色人種的錯判率佔到38%。

無獨有偶。

2012年的一項研究顯示,Coigntec(德國從事生物特徵識別技術的公司)的人臉識別程序在識別非裔美國人和白種人時存在差距,前者比後者的錯判率高出5%到10%。2011年的一項研究顯示,中日韓開發的人臉識別模型難以區分白種人和東亞人。今年2月,麻省理工媒體實驗室進行的研究表明,微軟、IBM和北京曠視科技(Megvii)通過人臉識別性別的錯誤率如下:7%的淺色皮膚女性和12%的深色皮膚男性被認錯,而深色皮膚女性的錯判率甚至高達35%。

弗吉尼亞大學(University of Virginia)進行的另一項研究顯示,ImSitu和COCO(兩個知名的圖像數據集)在描述體育、烹飪和其它活動時表現出性別偏見(其中COCO由Facebook、微軟和初創公司MightyAI共同贊助)。例如,購物圖片傾向於與女性相關聯,而教練圖片則與男性相關聯。

也許最糟糕的一個例子是:2015年一位軟體工程師報告稱,谷歌照片的圖像分類演算法將非裔美國人識別成「大猩猩」。

但是人臉識別技術的某些進展也是令人鼓舞的。

今年6月,微軟與人工智慧公平方面的專家合作,修訂並擴展了用於培訓Face API的數據集,Face API是微軟的一套演算法程序,用於檢測、識別和分析圖像中的人臉。隨著新數據包含膚色、性別和年齡等信息,演算法程序對深膚色的男性和女性的錯判率分別降低了20倍和9倍。

亞馬遜表示它一直在努力提高Rekognition識別的準確性,最近一次重要技術升級在去年11月進行。

伍德博士補充說:「我們為這一領域的學術研究提供了資金,也對自己的團隊進行了大量投資,而且努力還將繼續。我們致力於改善面部識別、面部分析,強調解釋結果時有很高的可信度,也會重點關注人工審查的作用、標準化測試等方面。我們感謝為改善這些技術做出貢獻的客戶和學者。"

下周在夏威夷檀香山(Honolulu)將舉行「人工智慧、倫理和社會促進會議」,而麻省理工學院的研究結果將在會上公布。

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 獵雲網 的精彩文章:

將城市道路系統徹底可視化,這家創企想要解決一個2500年前就存在的大問題
8款流行安卓應用涉嫌廣告欺詐,竊走數百萬美元廣告收益

TAG:獵雲網 |