死神來了!斯坦福的AI演算法可以精準預測病人的死亡時間,還能……
AI預測死亡時間 準確率高達90%
﹀
﹀
﹀
據英國《每日郵報》1月18日報道,斯坦福大學的研究人員開發出了一種人工智慧演算法,能預測病患的死亡時間,準確率高達90%。
利用人工智慧技術來預測病人什麼時候會去世, 這聽起來就像是反烏托邦科幻劇《黑鏡》里才有的情節。但斯坦福大學的研究人員認為,如果AI能做到這點反倒是一個很好的機會,因為它可以幫助醫生與病人更早地進行必要的臨終對話。
研究表明,由於治療慣性,很多醫生在預測病人的臨終期時傾向於給出比較樂觀的估計,從而推遲了醫生與病人之間關於臨終選擇的艱難對話。
醫生過高估計的傾向也是人之常情。不過有些時候,這種做法也會導致病人在臨終期到醫院接受不必要的、費用高昂的、帶有侵入性的治療, 而不是在相對舒適的環境中走完生命旅程。
一個數據是,如果可能的話,大約有80% 的美國人更願意在家中度過自己最後的日子。斯坦福大學之前也在 arXiv上發表了一篇題為"改善臨終關懷與深度學習"的論文。結果顯示,現實生活中有多達60% 的美國人最終是在急性護理醫院接受治療的過程中結束了自己的生命。
有鑒於病人的意願與臨終時的護理不匹配,斯坦福大學的研究人員便開始測試一種替代療法,即讓人工智慧幫助醫生完成對新入院病人的篩查。如果一些病人已經到了需要臨終關懷服務的階段,醫生可以比較早地做出判斷,及時向臨終治療專家提出臨終關懷請求。
"我們希望確保病人在最後進入重症監護室之前有機會告訴他們的家人他們希望如何離開。"斯坦福大學的科學研究員Kenneth Jung說。
所以"預測死亡"的AI演算法可能聽起來有些殘酷,但在研究人員的眼中,它可以讓人們在面對死亡的時候不那麼狼狽。
與此同時,通過AI來進行判斷預測也打破了傳統的臨終關懷服務程序。通常情況下,臨終治療專家需要等待主治醫生向他們提出請求,現在的話他們能夠準確識別並有了主動接觸需要這項服務的病人的機會。
據IEEE Spectrum介紹,斯坦福團隊的人工智慧演算法基於深度學習技術和醫療大數據。前者作為一種流行的機器學習技術,利用神經網路進行數據的過濾以及學習;後者則包括了斯坦福醫院或 Lucile Packard兒童醫院接收的大約200萬名成人和兒童患者的電子健康檔案數據。
斯坦福人工智慧實驗室從事計算機科學研究的阿南德?阿瓦提(Anand Avati)表示,"與精心設計的實驗研究相比,我們可以使用常規收集的數據建立一個全因死亡率的預測模型。現有數據的規模也能允許我們這樣做。"
經過訓練後,該演算法能提前3-12個月來預測患者生命結束的時間。如果按照傳統的方法,醫生會在三個月內進行預測,那樣的話留給臨終關懷服務的時間會很緊張。
據研究團隊稱,演算法得到了一家機構審查委員會的批准,結果證明這項技術並沒有人們想像的那麼可怕。深度學習模型在幫助醫生篩選病人並找出他們接受臨終關懷治療的最佳時機方面能夠起到很大的作用。
研究小組還強調,試點實驗的早期階段表明,對於醫生來說, 與重病患者進行臨終討論往往是有益的,即便他們不太可能在預測的時間內死亡。
此外研究人員也想通過實驗了解臨終關懷治療團隊和在一線護理病人的醫生團隊有什麼不同的表現,以及AI演算法預測是否能夠提高病人得到臨終關懷治療的比率。
小編寫到這裡不免感嘆,「走的安然」想必咱大多數人的臨終期望吧......技術可能許多時候都顯得有點兒冰冷,但若它根本的取向是如此的關懷人類,那便具有了「溫度」!
斯坦福的AI看臉即知性取向
﹀
﹀
﹀
關於AI的「花樣玩法」,小編又想起前不久斯坦福的AI看臉即知性取向。據說能識別你是不是直男,敢試試嗎?
事情開始於一項斯坦福大學的新研究。
研究人員Yilun Wang與Michal Kosinski用監督學習演算法創造出一種新模型,可以直接從面相判斷一個人的性取向,研究論文也即將發表在美國心理學學術月刊《Journal of Personality and Social Psychology》上。
什麼?還能根據面相判斷性取向?確定我是在看科學期刊而不是誤入路邊看面相算命的小攤攤?
帶著眾多問號,我們翻看了實驗研究。
面相識「同」?
研究人員首先從交友網站的公開信息中收集了14776人的35326張照片,想在照片中提取面部特徵。從臉型、嘴型、鼻型、眉形到面部的毛髮,這些特徵全部被提取並量化。
研究人員先標記面部特徵,同時用傾斜度、轉動和偏轉角度等參數定位人臉
之後,研究人員用深度神經網路(DNN)從中提取與性取向有關的特徵。在此,他們引入VGG-Face DNN模型,想通過面部表情、背景、光線、圖像屬性(亮度或對比度等)等因素來表示圖像中的人臉。
系統識別的可以預測性取向的面部特徵
隨後,研究人員用預測模型、邏輯回歸等奇異值分解(SVD)等方法將圖像分類,判斷哪些圖像中的人為同性戀。
(這是由數千張圖片組成的合成臉,展示了系統觀察到的面部特徵細微差別。右圖中的綠色/紅色線條分別代表男女異性戀者/同性戀者面部器官的位置形狀)
最後,研究人員隨意挑選圖像,讓電腦猜測受試者的性取向,結果證明AI系統的表現明顯優於人類:在沒有穿搭風格、人物動作等因素影響的情況下,就單一面部信息而言,分類器識別男女性取向的準確率分別達到了81%和71%。
研究人員還設計對照組讓人類判斷照片中人的性取向。實驗證明,人類對男女性取向識別準確率分別為61%和54%。對比看來,演算法的準確率明顯優於人類的直覺判斷。
如果通過5張以上照片讓系統識別人類性取向,則男女性取向準確率分別提高到91%和83%。
研究人員意外地發現,性取向與面部特徵存在些許關聯,一般情況下,男同有「女性化」特徵,女同有「男性化」特徵。比如,男同的下顎、鼻子和前額比直男大,與異性戀女性相比,女同的下顎更大,額頭更小。
業界看法
﹀
﹀
﹀
全世界都為AI演算法瘋狂打call?我們來看看業界大佬們怎麼看:
深度學習教父卻說它不行!
1986年,Geoffrey Hinton與David E.Rumelhart 和Ronald J. Wlilliams合著了一篇論文,首次將反向傳播演算法引入多層神經網路訓練。如今,這篇論文已經成為推動人工智慧爆炸式發展的核心。
然而在一場多倫多 AI 會議上,Hinton 接受採訪時透露:他現在對反向傳播演算法「深感懷疑」。
他認為反向傳播演算法並不是大腦工作的方式。想讓神經網路能夠自己變得智能,即所謂的「無監督學習」,可能意味著需要放棄反向傳播。」
Hinton 所提到的反向傳播演算法在當今的人工智慧領域扮演著重要的角色,它是訓練神經網路的經典演算法。在輸入數據固定的情況下、反向傳播演算法利用神經網路的輸出敏感度來快速計算出神經網路中的各種超參數。
它廣泛運用於當下的深度學習領域,包括對圖片進行分類的能力、與語音助手對話的能力等等。
不少媒體也有反對聲音
部分美國媒體「表示強烈譴責和極大的憤慨」,比如TechCrunch。
TechCrunch在一篇文章的標題上指責這項研究「顯示了數據時代的黑暗面」,還說這項研究將已經很脆弱的同性戀群體更加暴露於輿論漩渦中,「這也直接打擊了我們一直希望建立的平等觀念:不能以貌取人,也不能通過一兩張照片這麼簡單的東西,來判斷性取向之類的個人隱私。」
英國衛報倒是沒有那麼擔憂。這家媒體腦補了一些基於這種演算法的AI應用場景,比如有人懷疑自己是否形婚了,可以用這個AI演算法來測一測自己的另一半,或者青少年也可以用它來測自己、測同學……
衛報還因為這個AI演算法跑去採訪了多倫多大學心理學副教授Nick Rule,這位學者曾經研究過gaydar背後的科學。但對於斯坦福大學的這項研究,Nick Rule卻潑了英國衛報一盆冷水,他認為這個AI演算法非常「令人不安」,擔心可能有人出於惡意「根據人們的外表來分析他們、識別他們」。
關於這個AI演算法,你怎麼看?
(文章來源:環球網 量子位 36氪新媒體)


TAG:中國科技網視頻 |