當前位置:
首頁 > 科技 > 怎樣消除機器人的「偏見」?先從消除人的偏見做起

怎樣消除機器人的「偏見」?先從消除人的偏見做起

你有沒有想過這樣的問題:Alexa、Siri、Cortana(小娜)、Google Assistant 等等虛擬語音助手,性別都是女的?

在西南偏南大會上,幾位從事對話人工智慧 (conversational AI) 行業的女性專家告訴我,這當中既有偏見,又有道理。

偏見的部分指的是,當一個助手在和你對話時,大部分人會更習慣這個助手的性別是女的。因為人們期待「她」比男助手更加順從、體貼。

至於道理的部分,基於社會學和語言學的研究發現,在說話時男性普遍更直接,女性普遍更婉轉;男性普遍更武斷 (assertive),女性普遍更配合 (supportive)。

多年以來,對於同一種語言,男人和女人們普遍形成了風格迥異運用方式。從某種程度上講,它最初也是因為偏見的逐漸積累,形成了長期的結構性差異。

虛擬助手性別採用女性,符合這種差異。

偏見 (bias),更具體來說,聊天機器人等對話式 AI 的偏見問題,是西南偏南大會本場論壇的切入點。

除了性別之外,在虛擬語音助手和聊天機器人身上所能夠找到的偏見,還有許多的種類。比如種族歧視、基於政治立場的偏見等等。

而專家指出,無論是哪一種偏見,幾乎都是人自己偏見的映射。

IBM 沃森人工智慧的首席產品經理阿娜米塔·古哈 (Anamita Guha) 舉例,「如果你一直用叫喊的方式訓練人工智慧,那麼她學到的只會是叫喊。」

科技公司 Pandorabot 創始人兼 CEO 勞倫·坤澤 (Lauren Kunze) 認為,微軟早年的英語聊天機器人 Tay 是一個人類偏見投射到聊天機器人最典型的案例。

Tay 和微軟小冰有所類似,是一個話題不限制的閑聊式機器人。Tay 採用無監督學習的方式,有一天突然被微軟的工程師上線到 Twitter 上,任何人都可以跟她對話,教她東西——結果幾天下來,坤澤形容,Tay 被訓練成了一個「崇拜希特勒的性愛機器人」。

「Tay 所變成的樣子,不就是互聯網的樣子嗎?」她說,發生這樣的情況,人們擔心的不應該是聊天機器人的偏見,而是自己的偏見。

怎樣消除機器人的「偏見」?先從消除人的偏見做起

打開今日頭條,查看更多圖片

人的偏見是根深蒂固的,很難被刨除。甚至連開發 AI 的人不注意都會表達出這種偏見。

坤澤有次跟微軟集團副總裁、傑出科學家程麗麗 (Lili Cheng) 一起出席一個對話人工智慧的閉門會議,是會上唯二的女性面孔。當有人問起 IBM 沃森的聲音為什麼是男性時,有人在台下吆喝,「因為男人更睿智。」坤澤說,當時自己和程麗麗都氣的直抓桌布。

其實,沃森是一套基於深度學習,面向開發者/企業端的 API,在語音輸出時可以集成24種不同的聲音。

像沃森這樣多樣化地設計對話人工智慧的思路,已經逐漸被業界採納。

Dashbot 的高級開發客戶經理賈斯丁娜·阮 (Justina Nguyen) 指出,她的客戶很多是非科技行業的大品牌公司。在設計聊天機器人用作客服、營銷等用戶的時候,這些公司並不是說一定要用女性的聲音,而是它們需要確保這個聊天機器人和企業一直以來的形象保持一致。

就像《水形物語》中女主角去的那家甜品店,男服務生為了配合甜品店品牌的親民形象,裝出一種南方鄉巴佬的口音,其實自己的老家明明是加拿大。

「你的聊天機器人採用哪種聲音,具有什麼風格,是由你的品牌的形象 (persona),由你想讓消費者獲得何種體驗決定的,」阮表示。

怎樣消除機器人的「偏見」?先從消除人的偏見做起

既然聊天機器人的偏見來自於人的偏見,而這種偏見在現階段又很難避免,我們有什麼可以做的,有哪些規則可以被設立起來,確保開發出的聊天機器人是安全、盡量減少偏見的呢?

坤澤的建議是:如果你做的模型是無監督學習,那麼千萬不要拿到 Twitter 這樣的社交網路上去訓練。

阮認為,與其說我們要給聊天機器人(或者開發它的公司)設定規則,我們更應該給用戶設定規則,告訴他們應該怎樣跟聊天機器人正確地對話。

古哈也很同意這個觀點,「現在的小朋友們可以說是跟虛擬助手,跟聊天機器人一起長大的。

我們可以做一個設置,如果用戶發出一句指令後不加一個『請』字,Alexa 就不執行,你們說好不好啊?」

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 PingWest品玩 的精彩文章:

有這些矽谷錦鯉地的加持,不成功可就是你的錯了!
亞馬遜、摩根大通和伯克希爾聯合成立醫療保險公司

TAG:PingWest品玩 |