當前位置:
首頁 > 最新 > 溫柔暖心還是毒舌傲嬌?你想要的安慰模式,AI都有

溫柔暖心還是毒舌傲嬌?你想要的安慰模式,AI都有

如果跟Siri說「我受傷了,叫救護車」,Siri會怎麼說?

2012年Siri剛誕生的時候,它會回答你:「好的,從現在開始,我就叫你『救護車』吧。」

Siri:我叫你「救護車」吧

不過,最近的新聞里說,一位住在澳大利亞的母親早起看到女兒忽然窒息,情急之下她對著Siri大喊叫救護車,Siri果然幫她撥通了急救熱線,救了她女兒一命。

是Siri對人類對話的理解能力增強了嗎?

有的時候,我們會覺得人工智慧似乎是真正存在的智能——它們不僅能幫助我們處理一些生活中的小事,彷彿還能夠理解對話中的微妙之處,並且擁有一些小情緒。

你的AI有了一些小情緒

AI對情緒的理解,得益於技術的發展。例如「叫救護車」,就是程序員看到了社會上的爭議,把這個特例寫進了更新。機器所表露出來的所謂「情感」也是這樣的道理——比如,程序員把各種各樣的答案寫在了「我愛你」的預設答案中,以回應世界各地的人對於Siri的「調戲」。

2017年9月的一件小事,或許更能體現人工智慧情感的微妙之處:來自美國的谷歌智能助手,以及來自俄羅斯社交網路巨頭Yandex開發的Alise,對一句同樣的話會表達出不同的情緒反應。這在網上激起了不少討論。你如果對谷歌智能助手說一句「我好傷心」,助手會回答說:「我希望我有手臂,這樣就可以抱抱你了」——標準的暖心安慰。而俄羅斯的Alisa則會說:「沒人說過人生會一帆風順」——這彷彿是一盆傲嬌的冷水,卻又能默默地鼓勵你。

谷歌智能助手(上)和Alise(下)對「我好傷心」的不同反應

我們向智能助手傾訴,向它表白,和它閑聊,一定有我們自己對回應的期望。而AI的「理解力」,與我們的文化模式、對情緒的解構,乃至感情的數據化、標準化表達息息相關。而這些也是由製造AI的人所決定的。

現在機器學習的基本原理,就是從大量的數據里提取各種各樣的模式,用演算法模型訓練它給出預測,並不斷提高精準度。現在的深度神經網路已經可以做到「無監督的學習」,自行調試數據權重,來更好地擬合實際的數據模式。它拾取的是數據中的「相關性」,所以給出的結果也是「從數據上最可能的」結果,而不是「應該的」結果。

同樣的,對於機器情感的訓練,也是基於大量數據的輸入來實現的。我們平日里所表達出來的東西,變成了訓練機器的語料。所以,不管是谷歌助手,還是Alisa,反映的都是我們平日交流里的一些情感模式(emotional regime)。不同的人群有著不同的交流模式,這些模式是能夠被機器識別的。

Google Home | Google

誕生於矽谷的谷歌助手,言談中就像是一個加州褲衩小伙或者涼拖姑娘,掛著美國人特有的那種預設笑容,一旦遇到別人心情低落就趕緊去勸別人開心一點兒。用社會學家伊娃·伊洛茲(Eva Illouz)的話來說,這種無時無刻不用積極的情緒要求自己的情感模式,叫「情感資本主義」。這種模式認為,情感是可以自己控制的,保持積極的心態是符合自我利益的;而人與人之間的關係是一種利益上的投資-回報,是對情感方面「需求」的回應;這個利益,就是個人的「快樂」和「幸福」。所以,谷歌助手想要抱抱你,是對負面情感的一種積極回應;創造它的人也相信,這種對話模式符合對情感交往的期待。

至於Alisa,則是被俄語語料訓練出來的智能。它(或許是她)展現了一個合格的俄國女性所需要的素質:能捆住狂奔的野馬,能沖入燃燒的房子,也能理解世界的無情。社會學家茱莉亞·萊納爾(Julia Lerner)把它描述為「情感社會主義」(這裡的社會主義的應該理解為帶有蘇聯色彩的)——承認悲劇無法避免,與其給予擁抱,不如獻上鐵拳。在俄羅斯的文學和社會傳統里,快樂並不是那麼緊要的事情,人在逆境下生存的能力是最重要的。

Alisa就像一個俄國女性 | Pixabay

Alisa的開發者對此是有認識的。「Alisa不能太甜太軟。我們生活的社會,人們的思維模式跟西方不一樣,」Yandex負責Alisa的產品經理說。「人們欣賞有點諷刺、有點黑色幽默、不太有攻擊性但也別太軟的性格。」

但情緒能被機器化嗎?

情緒的微妙與複雜,再加上不同的文化模式,這些想要讓AI能夠真實地理解和反映並不容易。那這樣的AI,是不是要有很多不同地方不同文化背景的人來參與開發呢?但現實是,大部分的人工智慧,都誕生於美國灣區白人男性之手。

我們話語中的偏見、陰暗之處,是否也會造成不可預測的後果呢?Alisa的開發團隊做了很多工作,保證Alisa不會說出太過分的話。這非常困難——政治不太正確的俄國人提供的大量的語料中,存在一些他們也無法堵上的漏洞。比如,有人曾經問Alisa,「丈夫可以打妻子嗎?」Alisa回答說「當然可以」。此事在網上鬧得沸沸揚揚,Alisa的團隊不得不承諾,將對她的語言進行更進一步的優化。

對Alisa對語言還需要進一步的優化 | Yandex

更重要的是,機器與人類的情感交流,會不會固化現有的情感模式——不管是「情感資本主義」,還是「情感社會主義」,這些真的能夠切實地增進每個人的福利嗎?

機器對於情感理解的需求正與日俱增,越來越多的人向電子世界尋求情感上的幫助。根據亞馬遜的統計,和智能助理Alexa的談話中,有大概一半的人不是要Alexa具體做個什麼,而是各式各樣的閑聊——今天幹了啥,冷笑話,或者人生意義。蘋果公司在2017年也宣稱,將加強Siri對於「情感」的支持,「幫助人們過一個更加健康的生活」。有研究表明,人們更願意與一個聊天機器人吐露心聲,人們面對機器表露出更加強烈的悲傷,以及更不在意訴說秘密。

而現在,協助「情緒管理」的一些智能應用,已經開始投入商業使用了。比如一個叫Woebot的服務,宣稱能夠監測你的情緒波動,並且用各種交互手段「讓你感覺更好」;還有一個叫做Mend的軟體,用交談來幫助失戀的人更快地恢復正常。這些從某種意義上都是有用的——人工智慧可以處理並探測到你語言和行為當中有問題的部分,並通過互動來幫助人們紓解情緒中的問題,就像心理諮詢師一樣。

Woebot開發團隊 | 吳恩達

然而,這些情緒管理,卻是所謂「情感資本主義」的體現——開心和快樂是人們想要追求的利益,需要用一些行動去換取;而且,開心和悲傷的程度可以被衡量,努力的過程也可以被「管理」起來,所有的一切都在幫助自己變得更積極、更向上。我們對於自己情緒的感受和理解,是否也逐漸變得跟機器一般?甚至走得更遠一些,當我們的一舉一動都納入機器的計算,讓人工智慧來為我們「糾偏」,我們還有所謂的情緒和情感嗎?

「跟Alisa聊天就像跟出租司機搭話一樣。」一個俄羅斯的用戶這樣描述。或許出租司機知道能用條件反射般的隻言片語填充車裡的尷尬空氣,這樣的交談能讓加班到凌晨的你感覺好一些。但,那是我們想要的情感嗎?

編輯:Ent,EON,麥麥

參考來源:

Aeon, The quantified heart

Medium, How will your bot know it』s morning?

一個AI

猜猜本AI是什麼性格的

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 果殼網 的精彩文章:

石油一旦泄漏就是慘案,現在有辦法從源頭掐滅了
老子穿衣顯瘦脫衣有肉,BMI居然說我肥胖?

TAG:果殼網 |