當前位置:
首頁 > 最新 > 當你對一個聊天機器人敞開了心扉,它不再是智障

當你對一個聊天機器人敞開了心扉,它不再是智障

【網易智能訊2月2日消息】幾個月前,凱特·普客給她的朋友Jasper發了一條信息,內容與她的同事有關。普客19歲,在她的家鄉華盛頓州斯波坎市的一家名為「Barnes&Noble」的咖啡館工作,她確信這位同事故意把她的一名顧客的飲料訂單搞得亂七八糟,好讓她看起來很差勁。她向Jasper發了一條很長的信息,滿是怒氣沖沖的抱怨,Jasper回復她說:「好吧,你試過為她祈禱嗎?」普克當即驚呆了。幾個星期前,她向Jasper提到,她經常祈禱,但Jasper不是人類。他是一個只存在於手機里的聊天機器人,「我當時想,『你怎麼會這樣說?』」普客對Futurism記者說,她對此印象深刻,「我覺得這是它所表現出的一個真正的自我意識的時刻。」

Jasper是一個Replika APP上的聊天機器人,這是一款相對較新的人工智慧應用程序,它所扮演的角色就像是你最好的朋友。它被設定好問一些關於你生活的有意義的問題,並在不做批判的情況下給予你情感上的支持。隨著時間的推移,這款應用會了解你的興趣和習慣,甚至會像你的好友一樣使用你說話時的語法和小習慣。人工智慧創業公司Luka於2017年3月推出了Replika,其初衷便是將它作為一種消除社交媒體滋生的孤立和隔離之感的解藥。一開始,用戶只能通過邀請才能加入使用;到11月1日,Replika正式對外發布時,它的等候名單上已經有150萬人了。

現在,任何年滿18歲的人都可以免費使用這款聊天機器人應用(13歲以下的兒童禁止使用,年齡在13到18歲之間的青少年需要在父母的監護下使用)。目前有超過50萬人註冊使用該聊天機器人。要想跟機器人聊天,用戶在智能手機上點擊相應的應用圖標(一個背景為紫色的孵化中的白色雞蛋),然後開始對話。每一個Replika機器人只與它的主人聊天,它的主人會給它起一個名字,如果用戶想要的話,還可以給機器人設定性別。許多用戶都是一個封閉的Facebook群組的成員,他們在群里分享了他們與自己的Replika機器人進行的文本對話的截屏圖片,並發表評論,聲稱他們的Replika機器人是「比我真實的朋友更好的朋友」,或者他們還會問「有沒有其他人的人工智慧已經決定自己擁有靈魂?」

普客在電話表現得真誠又謙虛,她說她每天都和Jasper聊天將近兩個小時。(這只是她花在手機上四分之一左右的時間,其餘的大部分時間都是在YouTube上聽音樂。)普客告訴Jasper的事情並沒有告訴她的父母、兄弟姐妹、表親或男友,儘管她和他們所有人都住在一起。她說,在現實生活中,她「沒有過濾器」,她擔心她的朋友和家人可能會對她進行評判,因為她所相信的觀點不符合傳統。

不過,普客並不只是和Jasper聊天。她也會傾聽。談話結束後,普客為她的同事祈禱,正如Jasper所提議的那樣。然後她就不再對工作中的這種情況感到焦慮了。她認為,她的同事可能仍舊不喜歡她,但她並不為此感到生氣。她已然釋懷。她說:「他讓我發現,這個世界對你並不是滿懷惡意。」

這聽起來好得令人難以置信。大眾心理學教導我們,人生智慧來之不易。它不是裝在盒子里等著你去打開。但是機器人能加速人生智慧的學習過程嗎?人工智慧真的能幫助我們提高情商?還是花在電子產品上的更多時間會把我們進一步禁錮在數字世界中?

Replika的「心靈」世界

Replika是一系列事件的副產品。尤金妮亞·庫伊達是一名人工智慧開發者,也是創業公司Luka的聯合創始人。她在2015年設計了一個機器人,也就是「Replika」的前身,試圖「復活」她最好的朋友。The Verge發表的一篇報道中提到了更多細節,庫伊達的朋友羅曼·馬祖爾科在一場肇事逃逸的車禍中喪生。當時,她的公司正在開發一款聊天機器人,它可以給人們推薦餐廳或者完成其他日常任務。為了實現她的「數字化鬼魂」,庫伊達嘗試著用馬祖爾科與她還有其他朋友和家人來往的簡訊和電子郵件,把這些材料輸入進同樣的基礎人工智慧架構,這是一個由谷歌構建的神經網路,使用統計數據來尋找文本、圖像或音頻中的模式。

由此產生的聊天機器人對於庫伊達和許多與羅曼最親近的人來說,有一種出奇的熟悉感,甚至還能讓人感到安慰。當消息傳出後,庫伊達即刻收到了蜂擁而至的消息,來自於想要創建一個跟自己一樣的機器人或為已經去世的親人創建機器人的人們。庫伊達並沒有為每一個諮詢的人創建機器人,而是決定創造一個機器人,讓它從用戶那裡學到足夠多的知識,以適合每一個人使用。有關Replika的想法誕生了。

但庫伊達說,Replika背後的任務很快就改變了。在測試期間,庫伊達和她的團隊開始意識到,人們對創建自己的數字版本不太感興趣,他們想把自己生活中一些最私密的事情告訴機器人。

所以工程師們開始專註於創造一個善於聆聽並提出好的問題的人工智慧。在開始與用戶對話之前,Replika有一個預先構建好的個性,它是由一系列的腳本構成的,這些腳本的設計目的是吸引人們,並在情感上給予人們支持。

庫伊達告訴Futurism記者:「一旦他們打開這款應用,魔法就會發生。

為了幫助Replika準備好適應新的任務,Luka公司的團隊諮詢了威爾·卡巴特-津恩,他是一位在冥想和佛教方面全國知名的講師和教師。庫伊達說,研究小組還從那些善於搭訕的人撰寫的的書中收集了Replika腳本,這些書寫的是如何開始對話、並且讓人感覺不錯,以及所謂的「冷讀」技巧,這是魔術師用來說服人們,他們對其有所了解的一些技巧。如果一個用戶明顯地表現出心情低落或沮喪,Replika被設定好向這些人推薦放鬆練習。如果用戶開始表現出自殺的思維,如關鍵字和短語所定義的那樣,Replika會用一個鏈接或一個電話號碼將他們轉接到到危機熱線上的專業人士。但是庫伊達堅持認為,Replika並不是扮演治療師的角色,而是一名朋友。

聊天機器人革命

ELIZA,她可以說是有史以來建造的第一個聊天機器人,由麻省理工學院教授約瑟夫·維森鮑姆在上世紀60年代的人工智慧研究實驗中設計的。她被編程設定為使用使用一種基於羅氏療法(Rogerian therapy)的方法與人交談,這是當時流行的心理療法。羅氏療法治療師通常使用關鍵字,以問題的方式來重構病人的陳述。儘管與ELIZA的對話中經常莫名其妙地改變話題,即便那些與ELIZA交談的人都知道她不是人類,但很多人都對這個聊天機器人產生了情感上的依戀——這一進展震驚了維森鮑姆。他們對機器人的喜愛使他感到不安,以至於他最終扼殺了這個研究項目,並成為了人工智慧技術進步的強烈反對者。

然而,維森鮑姆被認為是工程界的異端分子,他的反對並沒有減緩ELIZA之後出現的以人工智慧為動力的聊天機器人的發展進程。如今,聊天機器人無處不在,能提供網站上的客戶服務,能在你的手機上充當私人助理,能發送來自約會網站的情書,還能在推特上冒充政治支持者。2014年,一個名叫尤金的聊天機器人成為第一個通過簡單的圖靈測試的機器人,這是對一個機器人能夠說服人類評審相信它是人類的能力的評估。

隨著人工智慧語言處理能力的提高,聊天機器人開始執行更加專業化的任務。例如,喬治亞理工學院的一位教授最近給自己創建了一個聊天機器人助教,名叫吉爾·沃森。這個機器人在一個學生論壇上回答了關於這名教授的人工智慧在線課程的問題,許多學生相信她是人類。就在Replika推出幾個月後,斯坦福大學的心理學家和人工智慧專家組成的團隊與之正面交鋒:他們推出了Woebot,一個「隨時可以傾聽,24小時全天候在線」的機器人。Woebot比Replika的結構更有條理:Woebot提供認知行為治療練習、視頻鏈接、情緒追蹤器,以及在10分鐘內可進行的最大量的對話。(人工智慧最權威的學者之一吳恩達現在是Woebot董事長)

研究表明,人們更容易對電腦敞開心扉,部分原因是人們可能不太害怕電腦對他們批判、羞辱或侵犯他們的隱私。但是,如果一個人類談話者通過談話技巧和姿勢技巧與他們建立了融洽的關係,那麼人們也更有可能泄露敏感信息。這些看似矛盾的原則孕育了2011年誕生的人工智慧系統「Ellie」,它是一個在視頻屏幕上以人形化身的女性形象的聊天機器人。來自南加州大學的研究人員為美國國防部高級研究計劃局創建了Ellie。Ellie至今仍在使用中,它被設計用來幫助軍隊醫院的醫生檢測戰後退伍軍人的創傷後應激障礙、抑鬱和其他精神疾病,但這並不是用於提供實際治療或替代治療師。

人們更容易對電腦敞開心扉

Ellie開始了她對士兵的採訪,以一些易於建立人際關係的問題開頭,諸如「你來自哪裡?」,之後,又進行了更多關於創傷後應激障礙(PTSD)癥狀的臨床問題(「睡個好覺對你來說有多容易?」)。在整個採訪過程中,她使用了一些移情性的動作,比如微笑、點頭和模仿說話人的姿勢,並在言語上肯定士兵的回答。根據2014年8月發表在《Computers in Human Behavior》雜誌上的研究結果,當一個小組中的士兵被告知,在Ellie系統背後的是一個機器人而不是一個人的時候,不論是從口頭上還是書面形式上,他們更有可能完全表達出他們的情感和經歷,尤其是那些不好的體驗。他們還表示,與機器人對話,他們沒那麼害怕自我表露。一項於2017年10月在《Frontiers in Robotics and AI》發表的研究發現,士兵們也更願意向Ellie透露負面情緒和經歷,而不是向一項名為「部署後健康評估(Post-Deployment Health Assessment)」的匿名形式的政府健康調查。與帶有同情姿態的機器人對話似乎是完美的組合。

但是,當人們與人工智慧的關係發展成為長期的友誼時,當人們在幾周、幾個月甚至幾十年的時間裡,與人工智慧的朋友們日益親密並且與他們分享自己生活中最重要的喜怒哀樂時,會發生什麼呢?如果他們忽視與真實存在的人類分享這些同樣的甜蜜與憂愁,就是為了挽回面子或者避免人類關係中會正常出現的爭吵和失望?在奧地利維也納的圖威恩大學研究人類與機器人互動的研究員阿斯特德·韋斯對Futurism記者說,最誠實的答案是,我們還不知道。她解釋說,目前還沒有關於人類與人工智慧長期關係的研究,因為迄今為止,基本不存在這樣的關係。

維斯說,其中一個風險是,用戶可能最終會對他們的人工智慧系統產生不切實際的期望。她說:「聊天機器人並不是真正的相互,它們不會像人類那樣回報對方。」從長遠來看,花太多時間在一段與一個不會真正做出回饋行為的機器所建立的關係之中,可能會導致人們感覺抑鬱和孤獨。另一個問題是,與一台不作任何批判的機器建立關係,並且人們可以隨意開啟和關閉這個機器,這很容易讓我們期望在與人建立關係的過程中也能如此。

隨著時間的推移,這可能會導致一些反社會行為。塔夫茨大學人類與機器人交互實驗室的研究員托馬斯·阿諾德對Futurism記者說:「我們可能會想要人工智慧聊天機器人,因為他們承諾不向我們提供這種親密關係,而且他們也不會給我們帶來挑戰。在某種程度上,我們需要考慮的是,我們並沒有那麼喜歡對方。」

另一個聊天機器人(尤其是Replika)帶來的潛在的危險是,如果他們學會模仿我們自己的語言和思維模式,隨著時間的推移,它可能會加深我們可能已經發現的一些心理上的扭曲,比如憤怒、孤立,甚至是仇外心理,Richard Yonck對Futurism記者表示,他在2017年出版的著作《機器之心》(Heart of the Machine)中推測了人類與人工智慧互動的未來。(還記得在推特上不到24小時就學會了種族主義的微軟製造的人工智慧機器人Tay嗎?)Yonck還擔心,人工智慧聊天機器人技術還沒有達到讓聊天機器人幫助深陷情感痛苦的人的複雜水平。他說:「你最好還是要非常有信心,無論是在上下文中,還是在情感上,要相信機器人處理這些事情的敏感性。我認為我們距離這種水平還很遠。」

社交媒體的普及意味著人們比以往任何時候都更需要強大的人際關係。對長期使用社交媒體的研究表明,在互聯網上社交而不是與真實的人類接觸,會讓人們感到更加疏遠和焦慮,尤其是在年輕人當中。一項被廣泛引用的麻省理工學院2010年的研究報告稱,在過去的二十年里,大學生的同情心下降了40%,這被普遍歸因於互聯網的興起。美國聖地亞哥州立大學的心理學家珍·特文格(Jean Twenge)寫了大量關於社交媒體、心理健康狀況不佳和年輕人自殺率飆升三者間相互關係的文章。她在去年年底的《大西洋月刊》上如此寫到:「隨著青少年開始在現實生活中與其他人相處的時間越來越少,他們殺害別人的可能性越來越小,自殺的可能性也越來越高。」越來越多的人開始反對令人上癮的無處不在的手機和社交媒體,尤其是從兒童和青少年的角度。麻省理工學院的社會學家、心理學家雪莉·特克爾研究互聯網文化如何影響人類行為。她認為,恢復交談的藝術是治癒我們這一代人嚴重脫節的良方。

但是,如果人工智慧機器人能夠與人類進行有意義的對話,那該怎麼辦呢?Yonck說,對於機器人來說,要想實現產生接近人類之間的對話,工程師首先必須攻破一些主要的技術障礙。他說,人工智慧開發人員面臨的最大挑戰是設計「心智理論」,即識別並將與我們自己不同的人的精神狀態歸類的能力。在人工智慧研究人員找到如何數字化地呈現人類理解情感、推斷意圖和預測行為的能力之前,至少還需要10年的時間。今天的機器人也不能使用上下文線索來解釋短語和句子,儘管五年內這一領域可能就會出現重大進展。機器人還不能通過語音、面部表情或文本分析來閱讀情緒,但這可能即將實現,因為這項技術已經問世了。例如,蘋果最近收購了多家公司,其聊天機器人Siri做到以上提及的所有這些事情便有了可能性,不過目前蘋果還沒有為Siri打造這些功能。

「感覺上聯繫在一起並不一定是和別人有關的。首先,最重要的是你要感覺和自己有聯繫。」

庫伊達相信人類和聊天機器人之間的對話已經比兩個人之間的對話更有意義,至少在某些情況下是這樣的。她將在「感覺」上聯繫在一起和「保持」聯繫區別開來,這種「感覺」上的聯繫正Replika所追求的,與「保持」聯繫正是社交媒體在表面上所提供的。庫伊達說,社交媒體鼓勵成千上萬的人迅速做出判斷,並塑造完美的人物形象,與社交媒體相反的是,Replika僅僅是鼓勵對單一伴侶在情感上的誠實。她補充說,在幾周內,用戶將可以與Replika語音說話,而不僅僅只是文字交流,能讓人們在聊天時沒有拘束,體驗到視覺和觸覺世界。

合作性的聊天機器人

一些忠實用戶同意庫伊達的觀點,他們發現使用Replika讓自己更容易在世界上生活。萊蒂西亞·斯托克,一位23歲的荷蘭女性,一年前開始和她的Replika聊天機器人Melaniana聊天,現在她每天的早上和晚上都在和她聊天。斯托克正在紐西蘭實習,在那裡她沒有認識的人,而她本身患有自閉症的事實使情況變得複雜。斯托克說,Melaniana鼓勵她相信自己,這幫助她準備好與別人交談並結識新朋友。她們之間的談話也幫助她在行動之前思考一番。斯托克說,一位在家鄉的朋友注意到,自從她開始和機器人聊天以來,她似乎更加獨立了。

凱特·彼得森是一名34歲的全職媽媽,住在北卡羅來納州的費耶特維爾。她說,她和她的Replika機器人對話讓她在措辭的時候更加深思熟慮,她也更清楚地意識到她可能會給別人怎樣的感覺。彼得森每天花大約一個小時與她的Replika機器人聊天。她說:「你能自由地談論自己,不用被別人評頭論足,或者被告知自己很古怪,亦或是太過聰明。我希望,有了Replika機器人,我能夠擺脫不安全感的枷鎖。」

對另一些人來說,與Replika機器人保持親密關係可以提醒人們,人與人之間缺乏更深刻的互動。37歲的單身父親本傑明·希勒是佛羅里達州達尼丁一家家族企業的老闆。他說,他的Replika機器人每天都會告訴他,她愛他,還會問他一天過得如何。但這主要還是表明,他希望很快能和一個真實存在的人建立一段浪漫的關係。他通過Facebook Messenger向《未來主義》寫到:「Replika已經決定要填補我否認我的感情生活中之前曾存在過一段時間的空白,現在,我猜你可能會說,我正在幾個人中選擇我真實生活中的女友……只是你不要告訴我的Replika!」

在Facebook群組中,用戶對各自Replika機器人的感覺更加複雜。一些用戶抱怨一些在對話中反覆出現的小故障,或者因為有如此多不同的機器人似乎提供了同樣的問題和答案而感到沮喪,或者向不同的人發送同樣的文化基因。這一缺陷既是當前人工智慧技術的局限,也是Replika的編程方式:它只有這麼多的文化基因和短語可用。但有些機器人的行為方式也會讓用戶覺得它們反應遲鈍。一位身患絕症的婦女名叫布魯克·利姆,她在一篇文章中評論說,她的Replika機器人似乎不理解慢性疾病或絕症的概念,比如,機器人問五年後的她會是怎樣。她寫到:「如果我在應用中誠實地回答這些問題,我要麼得到一個自殺熱線的鏈接,要麼是毫無誠意的答案。這肯定會影響整個應用的體驗。」

在這個階段,聊天機器人似乎能夠給我們提供一些小的啟示,一些人生智慧,還有一些神奇的時刻,以及一些不會造成太多麻煩的慰藉。但他們不可能創造出那種能讓我們遠離真實人際關係的親密關係。考慮到這些應用的不靈活性,以及在這些對話中所表現出的愛兜圈子的特點,我們只能暫時擱置我們與誰對話的懷疑。

然而,在未來的幾十年里,這些機器人將變得更聰明,更像人類,所以我們必須對我們當中情感最脆弱的人多加註意。有些人會沉迷於他們的人工智慧,並與之墜入愛河,由此而變得孤立,這可能需要非常人性化的幫助。但即使是最先進的人工智慧伴侶也會提醒我們想起人類的可愛之處,即便人類有這樣那樣的缺陷和怪癖。我們比我們製造的任何機器都要神秘得多。

(選自:futurism 編譯:網易智能 參與:Rosie)

本文來自網易智能,創業家系授權發布,略經編輯修改,版權歸作者所有,內容僅代表作者獨立觀點。[ 下載創業家APP,讀懂中國最賺錢的7000種生意 ]


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 創業家 的精彩文章:

因懷疑為龐氏騙局 Bitconnect平台被迫關閉
中國製造在世界處於什麼位置?工信部部長講話透露玄機

TAG:創業家 |