當前位置:
首頁 > 最新 > 求職最後一關遭機器人「錯殺」?如何破除人工智慧中的偏差

求職最後一關遭機器人「錯殺」?如何破除人工智慧中的偏差

眼下正是求職季,前陣子江西一高校畢業生的遭遇讓網友吵起來了!在參加某銀行校園招聘時,她一路通過筆試、面試後,卻在最後環節第三方機器人性格測試不適合遭拒錄。

事件回顧:小鑫(化名)是江西財經大學在讀研三研究生,去年12月3日,她參加了江西省農業發展銀行組織的校園招聘,順利通過筆試。當月,小鑫再次順利通過招聘方組織的面試,她自認對答如流,表現優秀。

今年3月11日,江西農業發展銀行校園招聘項目組給小鑫發出簡訊通知,告知其擬被錄取。

簡訊內容中同時說明,考生被正式錄用前,還需通過性格測試、體檢、政審及報總行核准等環節。本來一切順利,小鑫為此還放棄了2018年春考和省考的機會。但是事情因為一份「機器人」出具的「情緒檢測報告」發生轉折。

在招聘方考評環節,有一項委託第三方ATA(全美在線)進行的性格測試,結果判定小鑫的情緒風險等級高,難以適應快節奏的工作。

據悉,小鑫在校期間,數次榮獲校級獎學金;並多次獲得學校本專業領域競賽獎,同時在江西財大的各類文體活動中也屢獲殊榮。

就小鑫在學校的表現,校方稱:「研究生入學,本身就要通過心理測試,沒有發現小鑫心理、精神狀況上的問題,且其專業基礎紮實,平時表現比較優秀,但平時說話直接,可能給機器人造成了誤判。」

小鑫親人則表示:「一個平時表現非常活潑、優秀的研究生,竟然被機器人判定為情緒上出了問題,招聘方如果以此為據,對考生一棍打死,同樣是不尊重事實,不尊重人才。」

這份情緒檢測報告由「機器人」出具,一旦有誤,等同錯殺「千里馬」。對此,全美公司回應:檢測系統來源於英國,在國內應用有近10年,由機器出具的評估結果,相對比較科學、權威,但是,也不排除有誤判,可能概率較小,但是,檢測只是類心理測試,招聘方不能將測試結果作為唯一依據。

據悉,招聘單位最新回應,將為這名學生重新安排測試,應該來說這是一個皆大歡喜的結局......讓我們重新回到人工智慧本身,事實上,人工智慧系統往往會存在著偏差(或是偏見),而這種偏差常常會導致意想不到的結果。

人工智慧系統中的偏差會導致意想不到的後果

Alexa、Siri、小娜,這些虛擬數字助理正在成為我們日常生活的一部分,它們除了功能相似之外,還有一個共同的重要特徵:她們都被編碼為女性。

如果你從來沒有考慮過為什麼所有這些人工智慧助手都是女性,這並不奇怪。LivePerson是一個基於雲計算的客戶服務消息解決方案,它委託有關機構對1000名美國成年人進行調研,以確定他們對人工智慧以及技術上的性別差距的看法。「Alexa,Siri和谷歌助理默認都是女性。你有沒有想過這個事實?」總體而言,53.2%的人表示他們沒有想過,這就是他們對這個問題的回應。

LivePerson的首席執行官Rob LoCascio說:與其它技術不同,「有了人工智慧,你正在創造一些你賴以互動的東西,就彷彿和另一個真人在互動,或者你正在用它來補充人類活動,做出決策和推薦。他說:「所以我們必須問,為什麼?為什麼我們將這些『助手』定性為女性?關於我們對世界上和工作場所中的女性的期望,這又說明了什麼?女性天生就是『助手』,她們是『愛嘮叨的人』;她們執行管理角色;她們擅長接單?」

偏差放大

當然,這不僅僅是數字助理存在偏見問題。正如彭博社所報道的那樣,研究人員已經開始注意到人工智慧系統的這樣一個傾向——重複並放大它們的創造者所造成的偏差。

該文指出:「公司,政府機構和醫院正日益轉向機器學習、圖像識別和其它人工智慧工具,以幫助人們預測這些內容——從貸款申請者的信譽度到癌症患者的首選治療方案。這些工具有很大的盲點,這些盲點尤其影響到女性和少數族裔。」

正如上文所述,在招聘中,人工智慧通常用於確定理想的候選人。然而,如果對人工智慧聽之任之,它可能會使IT領域的多樣性問題變得更加嚴重,在這些領域裡已經缺少很多女性和沒有得到充分代表的少數族裔。

人工智慧招聘者AllyO的創始人Ankit Somani說:「在科技領域,如果你正在尋找技術職位的候選人,那麼大多數候選人會是白人男性;所以如果你只是將所有這一切輸入系統中,並接受任何結果,那麼你會看到系統會做出這樣的關聯——比如說,一個開發人員,然後將其與白人男性關聯起來」。他說:「根據它所收到的數據,這並沒有錯,但如果你不了解當前多樣性的缺乏是如何影響這些系統的,那麼你可能會加劇這個問題。」

人的因素

Somani說:你要確保自己理解這一點——人工智慧系統是如何解釋它們收到的數據的,並調整演算法,這是解決偏差問題的一種方法。

他說:「人工智慧技術對於處理數字和處理大量數據和發現模式是非常有用的。人所扮演的作用是理解模式,根據結果找出需要改變的地方,當然還有建立真正的情感聯繫。」

「你可以一起致力於保持平衡並確保人工智慧系統公平公正地執行,但你必須進行這些檢查。如果你僱用一名員工,難道你不會有績效考核?難道你永遠不會考察他們的表現以及他們的表現是否達到標準?當然不是。那麼你為什麼不用這些技術來做這件事呢?」

人工智慧職業平台Gloat的內容和社區經理Melanie Pasch補充道,持續檢查你得到的結果並密切關注偏差是很關鍵的。

例如,Gloat的匿名招聘軟體不僅通過刪除姓名和任何其他可能與候選人的性別,性取向,種族或民族相關的因素,還刪除可能指向社會經濟階層的其他因素,將簡歷匿名化。

她說:「我們觀察某些業餘愛好的結果(例如騎馬),意識到社會經濟階層是無意識的指標。我們也積極地認識到,對於某些職位和學位,它們並不一定與工作上的成功相關,所以我們根據這些因素編碼,將他們從考慮因素中排除,並專註於其它數據點。」

Pasch說,還應該有一個過程,讓人類評估人工智慧決策,確保它們按預期工作,並且不會加劇偏差。

Pasch說:「人們不應該僅憑演算法的一面之詞進行招聘,因為我們知道這些問題的存在。但是,隨著我們取得進展並漸漸看到更好的代表,這項技術將與我們一起學習並發展。」

來源:部分內容來自中國青年報,綜合中國江西網,人民日報客戶端、新浪微博,企業網D1Net等

GIF


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 ServiceHot 的精彩文章:

機器翻譯的前世今生
IT的未來:現代多雲數據中心的快照

TAG:ServiceHot |