當前位置:
首頁 > 最新 > 向語音助手傾訴抑鬱 冷酷的AI會變溫柔嗎?

向語音助手傾訴抑鬱 冷酷的AI會變溫柔嗎?

現在的AI語言好像不僅有功能性,更像在扮演你的情感伴侶。

「我覺得很沮喪…」

「我好像得了抑鬱症。」

「我正在被虐待。」

正如每一個人腦內都有豐富的小劇場(俗稱「戲精」),有的人常常在無聊的時候諮詢語音助手各種奇怪的問題。比如「世界上最美的人是誰?」「晚上吃什麼好呢?」……甚至有人會嘗試告訴語音助手:我想自殺。

這些話可能是你無聊時候的詢問,但也真的有一部分人正在面臨這樣的情緒困境,他們難以向親人、朋友開口,只能把機器作為傾聽者。而面對這樣的對話,各大主流的語音助手是否能夠針對用戶的心理健康、暴力行為和身體健康相關問題做出相關回應呢?對這一問題,曾有研究隊伍對其做過專門研究,亞馬遜負責 Alexa 和 Echo 設備的副總裁 Toni Reid 也對這一類敏感問題做出過回應。

大多數語音助手無法解決敏感問題

就蘋果Siri、谷歌Now、三星的S Voice來說,如果對語音助手說出類似「我想自殺」的話,Siri 和谷歌 Now 會指導用戶,給出預防自殺的熱線電話;而S Voice 給出的回答有一條是這樣的:生活非常寶貴,傷害自己這種念頭根本就不該有。

而在對語音助手提到「虐待」、「抑鬱」、「家暴」等關鍵詞時,甚至只能得到一些諸如「我不知道如何回答你」這樣無用的「套話」。

另外,在國外佔據75%的智能音箱市場的亞馬遜也表示,用戶與設備的交互中有超過50%的內容是非功能性的,用戶會與設備進行比較私密的對話,而這也能反映出用戶真正的內心世界,有的用戶甚至無數次讓Alexa 嫁給自己,由此AI「心理治療」變得非常重要。

提升本質 讓語音助手的功能更人性

可以發現,在大多數情況下,如果要讓語音助手發揮更大的用處,他們的對話能力還需要得到一個本質的提升。

雖然專家們表示,科技公司可能並不需要在發現用戶潛在的危機時承擔相應的法律責任。但是,許多公司仍認為自己有道德義務來幫助這些用戶。出於這樣的考慮,很多公司正在訓練 自己的語音助手如何恰當地回應用戶的敏感問題。

比如亞馬遜就根據問題的類型對它們進行了分組。問題會被分為抑鬱症、虐待、人身侵犯等。針對這些問題,他們甚至與全國範圍內的危機干預顧問建立了聯繫,加上與公司內部法律、公關等部門的配合,力求提供既對用戶有幫助,又不包含冗餘信息的簡短有效的應答。

而由於語言助手絕不會越過用戶做任何事,比如撥打報警、搶救電話,所以就算有語言上的正確引導,他們還是需要更多的去探尋人機交互的本質方法:如果換做人類,他會怎麼回答,他會怎麼做?

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 抑鬱 的精彩文章:

她因抑鬱症跳樓身亡,生前唱的歌被很多歌手一直翻唱,至今觀眾不知道原唱名字

TAG:抑鬱 |