當前位置:
首頁 > 最新 > 你知道正在使用的智能軟體有歧視和偏見嗎?

你知道正在使用的智能軟體有歧視和偏見嗎?

在智能手機、軟體和大數據網路橫行的今天,人工智慧的「演算法」無處不在,比較常接觸的例如翻譯軟體、智能匹配,也許我們都躲不過被智能演算法」計算」和「識別」,而這些「演算法」是否會有偏差,而偏差又會不會給我們生活帶來困擾?

去年年底,在聖路易斯科技公司工作的一位高管Emre Subminsion Arbak,他注意到谷歌翻譯的一些奇怪之處。

他在翻譯土耳其語的短語--一種使用單一性別中性代詞「o」而不是「他」或「她」的語言。但當他要求谷歌的工具將這些句子轉換成英語時,這些句子讀起來就像一本20世紀50年代的兒童讀物。沒有性別差異的土耳其句子「o是護士」會變成「她是護士」,而「o是醫生」則會變成「他是醫生」。

網站Quartz接著寫了一首詩,突出了其中的一些短語;谷歌的翻譯程序認定士兵、醫生和企業家是男性,而教師和護士是女性。絕大多數職業是男性。Quartz同時指出,芬蘭和中國的翻譯也有類似的問題。

到底怎麼回事?谷歌的翻譯工具「學習」語言是從現有的文字語料庫中得到的,而寫作往往包括關於如何描述男性和女性的文化模式。由於該模型是針對已經有偏見的數據進行培訓的,它所產生的結果只會進一步複製甚至放大它們。

看似客觀的軟體會產生性別歧視的結果,這似乎有些奇怪,但問題是,在科技界,人們越來越關注這個問題。這個術語是「演算法偏差」--這種想法認為,人工智慧軟體,我們所依賴的東西,從為視頻網站選取推薦,到確定我們貸款的資格,往往會使社會偏見永久化。

像亞馬遜的alexa這樣的語音助手,其仍然很難識別出不同人種的口音。Twitter上的一個微軟聊天機器人在向平台上的其他用戶學習之後,開始發布種族主義的帖子。在2015還有一個特別尷尬的例子,一位黑人電腦程序員發現谷歌的照片識別工具將他和一個朋友貼上了「大猩猩」的標籤。

有時隱藏的計算機偏見,結果是侮辱,有時只是煩人,有時這種影響可能會改變生命。兩年前,ProPublica的一項調查發現,用來預測囚犯重犯風險的軟體,在評估非裔美國囚犯與白人囚犯時,不準確的可能性幾乎是前者的兩倍。法官在判決和假釋決定中越來越多地使用這種分數,直接影響到刑事司法系統對待公民的方式。軟體的關鍵部分可能會產生巨大的社會影響,它們的偏見常常會被忽略,直到已經感覺到了不良後果。

該行業知道自己有問題;谷歌在其大猩猩照片醜聞後受到了巨大的公關打擊。但這個問題不斷出現,往往隱藏在專有的「黑匣子」軟體包中,而不成比例的白人和男性科技產業的文化盲點又加劇了這一問題。現在,問題正直接落在公共政策領域,而政客們正在努力解決這一問題。

在公共生活中用樂觀方式的方式來說,演算法是「智能治理」:即軟體可以給領導者快速的答案和更好的決策工具的想法。考慮到他們能夠快速處理大量的信息,演算法在每一個層次上都將變得越來越重要。他們已經被用來確定個人的福利資格,應該派往不同社區的警察人數,以及最需要公共衛生援助的居民。

隨著它們的普及,智能治理的巨大潛力已經被那些「智能」系統如何評估人的不確定性所籠罩。潛在的潛移默化的軟體偏見對政治領導人來說並不是一個容易解決的問題,部分原因是它技術含量太高了。但監管機構已開始在聯邦層面上引起關注。奧巴馬時代的科技政策辦公室2016年的一份報告警告說,人工智慧驅動的演算法對工人的影響有可能加劇不平等,並指出,隱藏在計算機代碼中的偏見可能會使許多領域的個人處於不利地位。(目前尚不清楚,現任白宮是否也有同感:與美國公民自由聯盟(American Civil Liberties Union)合作的AI Now Institute,其創始人也是微軟(Microsoft)和谷歌(Google)的研究人員。該研究所警告稱,特朗普政府對人工智慧政策缺乏參與。)。

儘管大家都認為偏見是一個問題,但我們還不清楚如何解決這個問題。

美國國會提出的一項立法確實提到了這一點;由參眾兩院一個兩黨小組發起的「人工智慧未來法案」(FutureofAI)包括一個題為「支持人工智慧不偏不倚的發展」的要點。

這項規定雖然具有開拓性,但並沒有提供解決方案:它將在商務部內設立一個由19人組成的聯邦諮詢委員會,以跟蹤此類技術的增長,並就其影響提出建議。

目前還不確定這個法案是否會得到認真的考慮,如果它得到了,諮詢委員會將忙得不可開交。

首先,隱藏的軟體偏差問題和演算法的數量一樣多。

因為每個演算法都從不同的數據集中學習,並具有自己獨特的設計,因此很難開發一套適用於每個不同模型的標準化需求集。

最重要的是,包含演算法的軟體包--甚至那些用於公共政策的軟體包--往往是由開發它們的公司擁有和保護的。

使用人工智慧驅動軟體的政府機構不一定有權查看底層代碼。

例如,在ProPublica對累犯偏見的調查中,該演算法位於一個名為COMPAS的軟體中,各國都使用該軟體來估計釋放的囚犯今後可能犯下的任何罪行的可能性和嚴重程度。

該軟體是由Northpointe開發的,這是一家私人公司,於2011被多倫多的星座軟體公司收購。

判決法官無法了解模型的內部運作,因為代碼是專有的。

一些州已經做了統計分析來評估它的準確性,但是它如何衡量與種族相關的變數的細節仍然是一個懸而未決的問題。(研究人員正在繼續調查)。NorthPointe最終與ProPublica分享了其演算法的鬆散結構,但拒絕分享具體的計算結果,並對該報道的結論提出了質疑。

在這一領域內,許多人現在表示,人們對解決這一問題的必要性有著壓倒性的認識。

談話已經從「你對這個問題有什麼看法?」變成「哦,不,我們需要解決這個問題,」猶他州大學教授蘇雷什·文卡塔蘇布曼尼安(Suresh Venkatasubramanian)說。他是OSTP對這一問題進行評估的學者之一。

(Politico)

分享是積極的生活態度

GIF


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 東西新報 的精彩文章:

英國首席捕鼠官因工作效率低慘遭「嚴厲制裁」 禁止員工餵食

TAG:東西新報 |