當前位置:
首頁 > 新聞 > 人工智慧的種族主義源於演算法,若現在不解決未來將更難

人工智慧的種族主義源於演算法,若現在不解決未來將更難

人工智慧的種族主義源於演算法,若現在不解決未來將更難



來源:36氪


概要:演算法決定了我們生活中的很多東西,但是它在多樣性上還有待改進。


演算法決定了我們生活中的很多東西,但是它在多樣性上還有待改進。

替我們的生活做決定的演算法越來越多,讓我們越來越擔心。這些演算法決定了我們在互聯網上看的是什麼、我們多大程度上會變成受害者或者教唆犯罪的人。演算法使用數據集合進行校驗,但是這些數據集合并不包括各個不同的人群。


這可能是一個令人感到意外的結果:依賴演算法做決定本質上具有傾向性。用谷歌、百度、必應等搜索引擎以「手」或者「嬰兒」搜索圖片,你會發現,這些圖片大部分都是白皮膚。

人工智慧的種族主義源於演算法,若現在不解決未來將更難



使用bing搜索「嬰兒」圖片,首屏只有白皮膚嬰兒的結果。


全球白網,平衡搜索結果的膚色佔比


2015年,平面設計師Johanna Burai在谷歌上搜索人類「手」的圖片,發現谷歌搜索最前面的結果只有白皮膚的手。隨後,她發起了「全球白網」(World White Web)計劃。通過她的網站,照片上傳者分享不同膚色的照片,她的網站就可以提供「可選擇」的手部圖片,用來平衡不同的膚色佔比,因此,谷歌等搜索引擎就可以抓取不同膚色的照片。


谷歌說,它的圖片搜索結果是網路內容的反映,包括了某種類型的照片出現的頻率、它們在網路上添加的描述。這些反映並不涉及它的「價值觀」。

人工智慧的種族主義源於演算法,若現在不解決未來將更難


使用谷歌搜索「手」的圖片,結果也一樣。


Burai女士現在已經不維護她的網站了,她相信事情已經有所改觀。她說:「我認為事情正在好轉,人們看到了問題。當我發起這個計劃的時候,人們很震驚,而現在對於這個問題,人們已經給予了更多的關注。」


演算法正義聯盟,檢測演算法是否具有偏見


2016年11月,麻省理工學院(MIT)的研究生Joy Buolamwini創辦了演算法正義聯盟(AJL)。她試著在一個項目中使用面部識別軟體,但是該軟體不能載入她的面部,因為Buolamwini的膚色很深。


她說:「我膚色很深,而當我戴上白色面具的時候,系統更容易識別。戴上面具其實已經不能說是一張臉了,更適合稱呼它為模型,而電腦可以輕易讀取該模型。」

人工智慧的種族主義源於演算法,若現在不解決未來將更難



Joy Buolamwini發現,她的電腦能識別白色面具,而識別不了她膚色為黑色的臉。


這已經不是她第一次遇到類似的問題了。五年前,她不得不讓一個皮膚顏色更淺的室友來幫助她。


「我感慨萬千。我很沮喪。因為這是一個五年還沒有被解決的問題,」她說:「我很震驚,因為白色面具居然那麼容易被識別。」

Buolamwini女士說:「如果給你的系統做測試的人跟你很像的話,你的系統會運行地很好,然而你永遠也不可能發現這其中有問題。」她把AJL的反響描述為「巨大且強烈的」。


老師們想要把她的工作展示給學生;研究員想請她檢測他們自己的演算法是否有偏見的跡象;人們向她報告自己的經歷……這些人看起來似乎不少:一位研究員想檢測皮膚癌確診演算法是否在深色皮膚中有效。


多樣性報告,矽谷巨頭們本身不具備多樣性


Buolamwini女士認為,這種情況的出現,部分原因是技術行業本身就有著證據確鑿的多樣性缺失。


每年,科技巨頭都會發布多樣性報告,它們揭示了嚴肅的現狀。


谷歌2016年1月份的最新數據顯示,技術人員有19%是女性,只有1%是黑人。


微軟2016年9月的數據顯示,17.5%的技術人員是女性,2.7%的技術人員是黑人或者非裔美國人。


Facebook2016年6月的數據指出,美國國內的技術人員有17%是女性,1%是黑人。


有偏向的審美,數據集合單一的缺陷。


去年有一場特殊的選美比賽,它收集了100個不同國家的大約6000張自拍,並讓演算法來判定選美結果。在44個獲勝者當中,只有一個是非白人,極少數是亞洲人。

人工智慧的種族主義源於演算法,若現在不解決未來將更難



該選美比賽當中,18-29歲年齡段的女性獲勝者之三,沒有黑人,其他年齡段也沒有。


Beauty.AI網站的首席科學家Alex Zhavoronkov告訴《衛報》,這個結果有缺陷,因為校驗人工智慧的數據集合不夠具有多樣性。他同時說道:「如果數據集合中白種人佔比過大,那麼實際上有可能得到有偏見的結果。」


更嚴重的是,根據網站Propublica的研究,人工智慧軟體在美國被用來預測哪一位罪犯可能再次犯罪時,它被發現更容易錯誤地把黑人罪犯識別為高再犯風險的人,而把白人罪犯識別為低再犯風險的人。


軟體公司對該研究表示懷疑。


技術樂觀主義者的解決之道


猶他大學計算機學院的副教授Suresh Venkatasubramanian(天吶名字好長)說,趁著問題仍然可見,人工智慧的創造者現在就需要行動。


他對BBC說:「最壞的可能就是,事情發生變化了,而我們不再意識到它。換言之,值得關心的是,因為我們視根據演算法作決策為理所應當,其中的偏見將從我們承認的人類偏見中,轉移到我們不再承認,因此也無法察覺的事物上。」

人工智慧的種族主義源於演算法,若現在不解決未來將更難


我們是否創造了具有偏見的機器人呢?


然而他是一個技術樂觀主義者。


他說:「所有的演算法都表現出種族主義在我看來講不通。並非因為這不可能,而是因為那不是演算法實際運行的方式。過去三四年間,已討論了關於演算法的問題和可能的解決方法。「


他提供了一些方法:


創造更好、更具有多樣性的數據集合來校驗演算法(例如:演算法通過處理成千上萬張圖片進行學習);


分享軟體供應商的最好的實踐;


構建能夠解釋決定的演算法,從而任何偏見都能夠被理解。


Buolamwini女士說:「我現在開始想一個問題,老年人在科技領域也並沒有自己的聲音,我們有沒有檢測並確保這一系統對老年人同樣有效呢?因為一些超重人士報告了問題,我就想,我們有沒有關注並確保這一系統對超重人群同樣有效呢?這絕對是擊中人們心弦的問題。」


她現在也挺樂觀的:「如果人們能夠更多地意識到潛在的問題,她對現狀的改善充滿希望。其實我們所創造的任何技術,它們都是人類抱負和局限的反映。如果我們在包容性上充滿局限性,這將會反映在我們開發的機器人上,或著納入機器人的技術上。」

2017未來科技論壇暨」未來科技資助計劃」發布


人工智慧學家/未來科技學院與中科創星,中國科學院虛擬經濟與數據科學研究中心,金融發展局等機構聯合舉辦未來科技論壇和發起「未來科技資助計劃」,聯合科技企業家、風險投資家,講解當前人工智慧,互聯網,腦科學,機器人最新進展,對科學家的前沿科學研究和科技創業進行支持。為誕生中國的重大原始科學創新和科技獨角獸提供燃料和催化劑。


主辦單位:中國科學院虛擬經濟與數據科學研究中心


承辦單位:人工智慧學家/未來科技學院


支持單位:中科創星,泰智會,常州經開區金融發展局


會議時間:2017年4月26日


會議地點:北京市海淀區中關村丹棱街1號互聯網金融中心1樓泰智會大廳


參會嘉賓:青年科學家代表,科技企業家代表,投資界代表、政府代表


未來科技論壇議題:


1.邀請人工智慧,互聯網,腦科學,機器人等方面的著名科學家進行最新科技前沿進展的報告

2.邀請著名投資人,科學家,科技企業家從不同角度闡述如何支持科學家的前沿科學研究和科技創業。


3.人工智慧學家/未來科技學院發布科學資助平台「Funding Future」,並與合作夥伴聯合啟動「未來科技資助計劃」


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 輕芒 的精彩文章:

罕有天然珍珠 只在古董珠寶中能遇見
Google更新PhotoScan,用戶現在可以輕鬆拍攝無眩光的照片
100天腹肌訓練我是如何堅持下來的
別人家的親媽!她把熊孩子的日常畫成書,萌到融化了
你愛你的明星,我吃我的日劇

TAG:輕芒 |

您可能感興趣

機器演算法確實越來越了不起,可它能算出女人的心思么?
看不清摸不著還能識別出物體,目標演算法讓機器人更聰明
「我,機器人」為期不遠,演算法顯示機器人也是種族主義分子
從演演算法到人工智慧,計算機的真正威力
人類大腦的智慧可能都來自於一個基本演演算法?
比你更了解你:演算法已經無可匹敵了嗎? | 演算法密碼
人工智慧和計算機演算法是未來發展的趨勢?理工男要統治地球了嗎?
女人要掌握自己身體的秘密,對自己負責不可不知排卵期的演算法
人類大腦的智慧可能都來自於一個基本演演算法
智能推薦綁架閱讀?癥結或在於演算法還不夠智能
如何避免人工智慧中的偏見性演算法
演算法密碼:比你更了解你:演算法已經無可匹敵了嗎?
當AI出現偏見時,如何讓機器學習演算法解釋自己的決策?
人工智慧時代,控制權究竟交給演算法還是人腦?
演算法偏見無處不在,卻始終無人關心
人工智慧新演算法,預測人類的心臟病和中風可能性,比專家還要准
人工智慧時代 控制權究竟交給演算法還是人腦?
看臉也能區分性取向?這個人工智慧演算法做到了
熱氣球不聽話 谷歌用人工智慧演算法來控制