當前位置:
首頁 > 新聞 > 機器人也會產生偏見,IBM 打算解決它

機器人也會產生偏見,IBM 打算解決它

機器人也會產生偏見,IBM 打算解決它

據 TechCrunch 消息,IBM 推出了一項新的雲服務,可以掃描人工智慧系統的工作情況,檢測系統偏見,並為正在做出的自動決策提供解釋。

所謂的「系統偏見」指的是人工智慧系統在運算過程中產生的誤差——它可能是由原始數據積累地不全面導致的,也可能是由計算設定中的 bug 導致的,或者是由工程師錯誤的操作方式導致的。

一個比較典型的例子是,亞馬遜的開放式人臉識別系統 Rekognition 將 28 個美國國會議員認成了嫌疑犯。

這其中的原因,一是因為測試者使用的默認置信度閾值是 80%,而亞馬遜建議執法部門應用該程序時應至少設置 95% 的置信度門檻;二是因為如果人工智慧的訓練數據本身就是嚴重偏向白人的,那麼機器做出的判斷可能也會非常偏向白人。整個國會中只有 20% 的有色人種,而在機器認定的「嫌疑犯」中,有色人種卻佔了 39%。更早前 NIST 的面部識別供應商測試也發現,女性和非洲裔美國人被 Rekognition 誤識的概率更高。

類似的例子還有,亞馬遜和 Google 的語音助手在理解非美國口音信息時,準確率會比理解美國口音信息下降 30%。

IBM 新推出的雲服務致力於解決這一問題。它可以檢測運行中的 AI 系統中存在的偏見,在不公平的結果產生時進行「捕獲」,也可以自動提出修改建議。

除了消除系統誤差,IBM 還可以對判斷做出解釋,比如哪些因素加重了哪個方向的判斷,我們應該對判斷結果抱有多大的信心,以及是哪些因素決定了我們抱有這個程度的信心。

IBM 稱,這一系統運行在 IBM 雲上,與 IBM 的機器學習框架和 AI 模型兼容,包括其 Watson 技術,以及 Tensorflow、SparkML、AWS SageMaker 和 AzureML 等。

歐盟的 GDPR 隱私法案規定,普通用戶有權了解人工智慧演算法在特定情況下如何工作。這意味著許多依賴人工智慧系統的科技公司可能需要一套能夠審核他們的 AI ,並為其判斷做出解釋的工具。

IBM 不是第一家發現 AI 偏見商業機會的專業服務公司。幾個月前,埃森哲也公開了一個工具,用於識別和修復不公平的 AI。「沒有一個演算法是完美的。」埃森哲人工智慧業務負責人 Rumman Chowdhury 說,「我們知道模型有時會出錯。但對於不同的人存在不同程度的錯誤是不公平的。」

埃森哲的工具可以檢查 AI 系統中的敏感變數,如年齡、性別、種族等,從而判斷其運算結果是否有傾斜傾向。

IBM 發言人稱,識別和修復 AI 偏見的工具的出現,會鼓勵更多企業有信心使用人工智慧系統。根據 IBM 的研究,雖然有 82% 的企業正在考慮使用人工智慧技術,但有 60% 擔心後續帶來的責任問題,有 63% 的企業擔心缺乏人才來管理人工智慧技術。

不過提到偏見,IBM 自己也正因一款天生帶有「偏見」的軟體而陷入風波。美國科技媒體 The Intercept本月報道稱,紐約警方的視頻監控系統軟體由 IBM 公司開發,紐約市警察局則提供大量的閉路電視監控數據作為軟體訓練的資料庫,最終讓軟體可以根據膚色、發色、性別、年齡和各種面部特徵去搜索相關人員。

通過皮膚、種族等信息進行嫌疑人篩選的監控系統引起了很大的爭議,公民自由倡導者組織表示,他們對紐約警察局幫助建立具有潛在大規模種族貌區別的監控系統的計劃感到震驚。

IBM 開發的去除偏見工具也許對他們自己的軟體也有用。

題圖/visualhunt

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 好奇心日報 的精彩文章:

因為作品太「丑」而被命名為「新丑風」,平面設計師高田唯的魅力何在?
「劇透」的殺傷力到底有多大?研究說,這事兒還得分人

TAG:好奇心日報 |