當前位置:
首頁 > 科技 > 屢建奇功人臉識別的「技術偏見」

屢建奇功人臉識別的「技術偏見」

微軟發現,商用人臉識別識別膚色較淺的男性準確率最高,而失誤率最嚴重的是膚色較深的女性。在演唱會「抓逃犯」上屢建奇功的人臉識別,其實還是不成熟的技術,具體表現在對膚色和性別的歧視上。

微軟發現,商用人臉識別識別膚色較淺的男性準確率最高,而失誤率最嚴重的是膚色較深的女性。這可算是人臉識別的「技術偏見」了。

這種偏見一旦在大範圍應用中「顯現」,聲討種族和性別「歧視」的聲音,將會淹沒微軟。為了解決充滿偏見的技術,微軟 Face API 團隊對其識別系統進行了三次重大改進。最新的人臉識別系統,識別膚色較深的人錯誤率降低了 20 倍,識別所有女性的失誤率減低了 9 倍。

儘管有了改進,但目前的人臉識別,還不是完美的系統。微軟認為,問題的根本解決辦法還是訓練資料庫,需要收集更多的數據,包括不同膚色、髮型和面部飾品等。

中國人普遍的黃皮膚,剛好避開了「最淺」和「最深」的膚色。但我國也有外貌特徵各異的少數民族,如果人臉識別對此產生技術偏見,就不是簡單的「開地圖炮」了,可能會引發嚴重的民族矛盾。

至於「更大範圍攻擊」的性別歧視話題,在我國也變得非常敏感,該慶幸人臉識別技術目前還沒有惹來「性別歧視罵戰」。

偏見的鍋不能完全甩給人工智慧,技術也是反映真實社會的鏡子。

微軟研究實驗室的高級研究員、AI 系統公平性專家Hanna Wallach在一份聲明中回應:如果我們訓練機器學習系統使用有偏見的社會產生的數據,來模擬那個社會做出決定,那麼這些系統必然會重現它的偏見。

例如,在一些社區中,黑人的犯罪率更高,AI 根據收集來的數據,更容易把膚色較深的人劃分到「逃犯」的分類中。這是群體給個體的傷害,人臉識別只不過「遵循了」社會偏見。

相比起導致「歧視」,研究團隊更希望 AI 能檢測和減輕偏見,以彌補現實社會中的不完美。追捕逃犯用大範圍攻擊的「種族炮」和「性別炮」容易傷及無辜,人臉識別的方向是更精密的「狙擊槍」。

一直對人臉識別技術保持警惕的美國,其海關部門也要啟用人臉識別系統,但收到強烈的反對。

?

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 科技無處不在 的精彩文章:

幾秒鐘給汽車充滿電 碳納米超級電容器即將面世

TAG:科技無處不在 |