當前位置:
首頁 > 最新 > 大數據「殺熟」,難道是人工智慧對你有偏見?

大數據「殺熟」,難道是人工智慧對你有偏見?

最近國內的互聯網行業著實不太平,先是被「大數據殺熟」的新聞霸屏,緊接著買機票、電影票時「看人下單」又被爆出,一時間人們不禁要問:數據餵養出來的AI難道也會對人有偏見嗎?

隨著AI技術的飛速發展,類似的爭議在網路上也是與日俱增的,最著名的就是特斯拉公司創始人埃隆·馬斯克,他認為「AI是比核武器還要危險的技術,並宣稱AI會是人類生存的最大威脅,號召人類時刻保持警惕,研究人工智慧如同召喚惡魔」。

有很大一部分人同意埃隆·馬斯克的觀點,並質疑AI是否有偏見,就像在電影中呈現的AI取代人類甚至破壞人類生活的事情是否會在現實生活中發生。這些未知的狀況都令大眾生活在恐懼的支配之下。

也就是說,如果給計算機輸入的信息有偏見,那麼人工智慧也會有偏見的存在。簡而言之,就是製作程序的人和訓練AI的數據是產生偏見的根源所在。

儘管人工智慧可能比人類處理問題更加快速,更加精準,但它到目前還尚未解決的一個問題就是偏見。事實證明,計算機可以像人一樣有偏見。有偏向性的代碼可能會產生意想不到的後果,包括不正確的刻板印象或種族歧視。

英特爾Saffron認知解決方案集團前首席產品官Andy Hickl表示,你輸入什麼水平的代碼就只能得到一個什麼水平的計算機程序,最終人工智慧會在決策中產生偏見。這可能是由於人們在嘗試設計複製人類判斷力演算法時的假設造成的,或者是從數據中進行機器學習時的機器假設造成的。如果機器只獲得了世界上一部分人如何行事的信息,而沒有其他地方的人如何說話、行事的知識,那麼AI技術就會因此產生偏見。

潛藏的刻板印象

越來越多利用「詞嵌入」技術來篩選簡歷就是一個例子。這個技術使用辭彙聯想訓練計算機識別潛在的求職者。

如果有可能存在偏見,那麼一些AI系統就需要設計成要求人工審查結果。

康奈爾大學的研究人員發現,有些辭彙聯想還是有些道理的,比如說「女」和「女王」,但是其他聯想卻產生了偏見,比如把「女」和「接待員」聯繫在一起。結果就使得女性的簡歷被放到了這種刻板印象的角色中。

人工智慧的偏見可能會造成比誤解性別或年齡更大的問題。ProPublica 2016年的一項研究分析了2013年和2014年在佛羅里達州布勞沃德縣(Broward County)被捕的7,000多人的風險評分。這些評分是由Northpointe研發的AI工具計算得出的,並在美國各地的許多法庭系統中使用。這項研究顯示,被該工具預測在未來兩年內會實施暴力犯罪的人中,80%的人實際並沒有這樣做。

一個重大的種族歧視傾向被無意中加入了該工具的預測。帶來的問題是,非裔美國人被告將比白種人被告的犯罪率高兩倍。而這個結果是完全錯誤的。

為了專門解決AI技術中的偏見問題,Hickl和他的團隊為AI平台Saffron設計了一個方法來檢查和解釋結論。如果一旦存在偏差或錯誤的可能性,則系統會建議讓人類參與結果的評估。

從有缺陷的數據開始

當然,了解為什麼會發生偏差是消除偏見的關鍵。不嚴謹的抽樣策略是最大的罪魁禍首之一,導致機器學習數據偏斜。

在高收入社區中更多地使用智能手機引發了有偏見的媒體報道。

例如,波士頓用人工智慧技術來分析從顛簸的街道項目收集到的數據,用戶可以通過APP程序報告地面的坑洞。官員們希望知道根據目前的道路狀況,什麼地方最有可能出現坑洞。但讓人驚訝的是,預測結果顯示中高收入的居民區有更多的坑坑窪窪。

但仔細觀察一下這些數據後發現,這個街區並沒有很多的坑坑窪窪,只是由於這裡的居民們更頻繁地使用智能手機,所以報告也就更頻繁。波士頓官員們最終找想到了一個完美的解決方案——利用經常行駛到各鎮上的垃圾車收集所需的信息。這個事例證明當只有一部分信息的機器需要做出正確的假設時,隱含的偏差可能性就會大大增加。

測試和問題結果

那麼,到底如何從AI技術中去除偏見呢?關鍵是授權工具以與人類相同的方式行事——測試假設並要求更多的證據。憑藉其分析大量實時數據的能力,無偏差AI技術可以改變我們的生活,工作和娛樂方式。儘管AI技術目前為止還有部分功能的欠缺,但我們都意識到了它給我們生活所帶來的翻天覆地的改變。相信如果充分發揮我們的潛力,未來人工智慧就一定能夠為我們提供所需的指導和反饋。


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 英特爾中國 的精彩文章:

什麼是新零售?看完就知道!
周末賞花?學會這兩招你也能拍出大片!

TAG:英特爾中國 |