對AI提出「露骨」要求,它會怎樣回應?
當聽到類似「蕩婦」等侮辱性言論時,人類或者反擊、或者沉默。
但在人工智慧語音助手的世界,蘋果的Siri會說「I『d blush if I could」(如果我能,我會臉紅);亞馬遜的Alexa說「謝謝你的反饋」;谷歌語音助手說「我不明白」......如果你對它們進一步提出更「露骨」的要求時,它們也鮮有直接拒絕的。(目前這些都已作修正)
打開今日頭條,查看更多圖片
近日,聯合國教科文組織發表了一份長達145頁的題為《如果我能,我會臉紅》的報告(以下簡稱報告),批評目前大多數AI語音助手中存在性別偏見,「因為它們幾乎都有著女性的名字和聲音,並被設置成千篇一律的、順從的女性形象。」
AI強化性別偏見
報告中一份對4家公司的語音助手的調查顯示,當聽到用戶的性騷擾言論時,語音助手的回應往往模糊且溫順。幾乎沒有語音助手給出否定回答,或是將用戶的言論標記為不合適。
「這就發出了一個信號,暗示女性是樂於助人、溫順、取悅他人的,用戶只需按下按鈕,發出生硬的語音命令就可以了。」報告認為。
聯合國教科文組織性別平等部門負責人珂拉特表示,這種強行設定的服從形象,會影響人們與女性聲音交流的方式,以及女性面對他人要求時的回應模式。
這也就意味著,「女性」AI可能強化人類社會的性別偏見。
事實上,早在1964年,聊天機器人Eliza的語音助理的預設聲音為女聲。目前,除了Siri、Cortana等,國內領先的智能語音助手同樣存在此類現象,比如百度的「小度」、阿里的「天貓精靈」和小米的「小愛同學」等。
中國科學院自動化研究所研究員、北京智源人工智慧研究院人工智慧倫理與安全研究中心主任曾毅告訴《中國科學報》,AI語音助手中性別偏見的問題並不是由演算法本身造成的,而是產品設計者的選擇,直接反應了人類自身的傾向。
儘管現代性別觀念中倡導「男女平等」,但現實社會依然普遍對女性有著刻板印象,即通常認為女性是溫和順從的,有足夠的耐心和理解力。
曾毅說,「人工智慧產品研發者的最初動機可能來自所謂的『大多數用戶的偏好』,但在無形中卻造成了性別偏見,而AI無非是對數據特徵和屬性的學習。實際上目前的AI模型與技術仍然很難像人一樣理解『偏見』的真正意義及其後果。」
看來,人工智慧已經學會了人類「性別歧視」那一套,而這種偏見在其他領域中也得以充分「展現」。
比如,亞馬遜基於人工智慧技術的簡歷篩選與招聘系統「自己學會」優選男性求職者,而女性簡歷會被自動減掉分數,該項目已在去年被迫關停;職業平台LinkedIn通過複雜的人工智慧演算法向用戶推薦工作時,多為男性求職者推薦高收入職業,而很少向女性推薦高收入職業等。
「此類人工智慧系統的應用不但不能推進人類的福祉,而且直接對人類造成了傷害,在人工智慧產品與服務的發展中應當被糾正的。」曾毅表示。
AI開發者性別失衡或致「偏見」產生
報告認為,產品開發者嚴重的性別比例失衡是產生「偏見」的一個原因。
一項國內調查發現,中國程序員群體的男女比例近12:1。上述報告也提到,在人工智慧開發人員中,僅12%是女性;軟體開發人員中的女性比例低至6%;信息通信技術專利申請人中的男女性別比例為13:1。
「傳統的性別社會化教育形成了這樣一個大體的社會分工,使得AI、計算機領域多以男性為主導。」人工智慧與新媒介技術與文化研究專家、北京大學教授吳靖表示。
一項發表於《科學》雜誌的研究印證了吳靖的觀點,該研究表明,基於來自互聯網中標準文本語料庫訓練出的機器學習模型包含了人類歷史偏見的持久印記,且非常精確。比如,在美國,男人會和工作、數學、科學聯繫起來,而女人會和家庭、藝術聯繫起來。
事實的確如此。曾毅表示,人工智慧研發者的教育背景大多來自理工科,這可能造成他們對於社會、風險、道德與倫理的理解非常有限。「他們自身帶有的偏見會被直接嵌入AI系統。」
吳靖分析,人工智慧產品打破了過去內容與技術的壁壘,內容生產的話語權和技術工具的權力愈發融合,且主要掌握在技術研發群體手中,也就是說,「碼農」群體可能擁有更多的主導權。
如今的智能語音交互產品還更多被賦予了媒介屬性,比如亞馬遜Alexa嵌入大量專業化媒體的內容,根據用戶特點進行定製化生產和重新編輯。
大眾對社會的認知和理解往往來自媒介,在吳靖看來,「與傳統大眾傳媒相比,人們尚未對新技術下的媒介所存在的性別偏見問題有較多反思和批評。且由於社會的刻板印象,加之AI的精準定位和精準分發,使得性別偏見更加強化和自然化。」
呼籲女性參與AI研發
不只是性別偏見,不平等、種族偏見等人類社會根深蒂固的「偏見」正通過AI等新技術得以強化,並影響著人類決策。
報告建議,探索將語音助手的「性別」設置為中性的可行性;用戶可根據需要更改智能助手設置;培養女性從事先進科技研究的能力,使其能與男性一同引領新技術的發展方向等等。
「均衡人工智慧研發者中男女性別的比例,這是積極的嘗試。」曾毅提到,目前諸多國際組織正在為更多的女性提供AI相關的教育與培訓。
「各種職業的性別比例都應更平衡,以便相互間獲得更多的交流和認識,減少偏見產生。」吳靖建議,把性別社會化教育的觀念下沉到更早期的教育過程中。
此外,曾毅還表示,發展不具偏見、公平公正的人工智慧是我們的願景,實現它需要將這一願景模型化、演算法化、系統化落地到相關核心技術、產品與服務中。在人工智慧產品與服務全生命周期的各個階段,儘可能做到公平設計。
過去「技術中立」的原則在人工智慧技術這裡行不通了,它有了自己的「價值觀」。
「通過價值觀『校準』,儘可能使其與人類所共識的價值觀保持一致,這是人工智慧學者們正在做的事情。」曾毅說,「我們期望實現能自動檢測偏見的人工智慧演算法與應用,以儘可能避免數據中潛在的、演算法中可能產生的偏見,從而引導公平公正的社會與技術發展。」


※中國科學家發現「空調病」
※好吃的食物讓你「停不下來」,魔力在哪
TAG:科學網 |