當前位置:
首頁 > 新聞 > 麻省理工學院公布AI神器,可以判斷人類是否有抑鬱症

麻省理工學院公布AI神器,可以判斷人類是否有抑鬱症


麻省理工學院公布AI神器,可以判斷人類是否有抑鬱症

麻省理工學院的研究人員最近開發出一種神經網路,能夠以相對較高的準確度對個人患有認知功能障礙的可能性做出預測。因此在一定程度上,我們可以將其理解為一種抑鬱症檢測器。

當然,這種說法並不準確,我們將稍後詳加探討。

由麻省理工研究員Tuka Alhanai、Mohammad Ghassemi以及James Glass組成的研究團隊在Interspeech 2018大會上展示其工作成果。

根據相關論文,他們開發出一種無情境方法,可藉此確保機器對人類的文本或音頻表達內容進行分析,從而檢測出該人的抑鬱度評分。其中最為關鍵的,當然在於這套人工智慧方案的「無情境」因素。

一般來講,治療師需要利用經過驗證的問題與直接觀察相結合,共同診斷對方的抑鬱症等精神健康狀況。而根據麻省理工學院團隊的說法,他們的人工智慧能夠在無需條件性問題或者直接觀察的前提下,實現類似的效果。換言之,其不需要情景信息,而只需要數據資料。

下面來看該團隊所發布論文中的部分內容:

麻省理工學院研究人員詳細介紹一種神經網路模型,該模型能夠通過訪談方式對原始文本及音頻數據進行解析,從而發現可能預示抑鬱症疾病的表達模式。在給定新主題的情況下,其能夠準確預測相關個體是否存在壓抑情緒,且不需要任何其它相關問題及答案信息。

那麼,這到底屬於檢測還是預測?

雖然看似無關緊要,但檢測與預測實際上屬於完全不同的兩回事。預測個體是否存在抑鬱傾向的演算法僅僅代表一種標記數據,將被提交給治療師進行進一步審查。但對抑鬱症的檢測,則要求其給出的確定性結果確實與目標個體的精神狀態相符。

當然,研究人員們也意識到了這一點。論文第一作者Tuka Alhanai表示,「這不是在對抑鬱症進行檢測,而是根據言語中的常見信號對個體的認知障礙問題做出一定程度的評估。」

幸好,看起來他們很明確地強調這是一種預測,而非檢測。但也正是這種微小的區別,使得這項工作在本質上具有可怕的影響。

為了測試這套人工智慧方案,研究人員們進行了一項實驗,由人為控制的虛擬代理對142名受試者提出一系列問題,從而進行抑鬱症篩查。人工智慧並沒有事先了解問題內容,而受訪者亦可自由以任何形式做出回答。問題的形式並非單項選擇,人工智慧需要從語言線索當中辨別抑鬱症。

在這項研究中,參與者的回答將以文本及音頻形式進行記錄。在文本版本中,人工智慧能夠在大約7個問答序列之後預測抑鬱症。但有趣的是,在音頻版本當中,人工智慧需要大約30個序列才能做出決定。據研究人員稱,其平均準確率達到驚人的77%。

問題在哪?很明顯,相信任何能夠直接接受醫師診療的病患,都不會選擇這種預測方式。

在辦公室中觀察病人的治療師們顯然認為自己擁有遠超演算法的診斷能力。而且這類人工智慧方案與利用圖像識別/檢測癌症不同。人類醫師可以通過醫學影像發現並清除癌症(在大多數情況下),但卻無法利用同樣的方式驗證人工智慧做出的抑鬱症診斷。

從理論角度講,當計算機與人類聆聽同一段對話並最終做出截然相反的抑鬱症診斷結論時,我們該如何判斷真偽?或者,如果大家願意,那麼在計算機發現對方存在潛在抑鬱症跡象時,我們是否也應進行相同的檢查以確保醫生做出的非抑鬱症判斷準確無誤?在這樣的情況下,自動化機制存在的意義是什麼?

更重要的是,當醫療專業人員以外的人士使用這種「抑鬱症檢測器」時,又會引發怎樣的後果?論文中的某些表達似乎證明,這些演算法確實是為了在高枕而麻省理工學院實驗環境之外的實際應用而開發:

患有抑鬱症的病患將長年累月受到消極與悲傷情緒的困擾。要治療抑鬱症患者,必須首先對其做出診斷。而為了獲取診斷結果,受試個體必須主動與心理健康專業人士進行接觸。實際上,由於移動性、成本與動機等因素的限制,抑鬱症患者可能無法得到應有的專業關注。在這種情況下,人工智慧方案提供的人類交流內容自動監測能力將解決這些限制,並提供更好的抑鬱症篩查服務。

對人類通信進行自動監控似乎代表著夢魘般的反烏托邦未來。我們可以想像,人們將在不知情的前提下面對一系列問答序列,並由機器對其心理健康情況做出評估。相信大多數人都會意識到,在未經同意的情況下利用神經網路這類黑匣子進行心理健康評估絕不是什麼好主意。

想像一下,如果企業利用「抑鬱症檢測器」這類人工智慧方案在面試過程中對您進行心理狀況檢測,或者律師通過演算法解釋您在子女監護權案件中的表述,會引發怎樣可怕的後果乃至影響。

更糟糕的是,我們甚至能夠想到警察局利用人工智慧黑匣子對嫌疑人在審訊過程中的精神狀態進行監測。畢竟世界各地的執法單位需要投入大量資金與寶貴時間對嫌疑人進行心理學側寫,而人工智慧據稱能夠更好地「檢測」對方的情緒狀態。

可以想像,如果全面推出,這類解決方案最終一定會出現在審訊室、就業面試以及其它難以預知的場景當中。我們絕不應被人工智慧的判斷所左右:機器絕對無法檢測到我們是否身為同性戀、有罪或者沮喪,它們只是在做出猜測。而身為人類,我們理應非常謹慎地對這種猜測結果加以運用。

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 科技行者 的精彩文章:

掌控區塊鏈未來的三大中心
區塊鏈技術如何顛覆房產行業

TAG:科技行者 |