當前位置:
首頁 > 新聞 > 未來熱門職業:給機器人看病的心理醫生

未來熱門職業:給機器人看病的心理醫生


圖為1968年影片《2001太空漫遊》中的超級電腦哈兒(HAL),它眼睛裡映出的是男主角戴維·鮑曼。戴維想讓哈兒做的不過就是打開救生艙門。圖片來源:Everett Collection


  

作者 Christopher Mims

 




人工智慧工程師現在面臨一個問題:他們常常不知道自己研發出來的那個玩意兒在想什麼。


 


隨著人工智慧日趨複雜和普及,它的影響力也越來越大。在判定誰該入獄,誰能獲得貸款方面,人工智慧都已經開始施展拳腳。有人建議,在一輛自動駕駛汽車發生不可避免的車禍時,應由人工智慧判斷哪個人的存活幾率最大。


 


初創企業現在無論做什麼,都喜歡給自己貼上人工智慧的標籤。蹭人工智慧名頭的方式越來越狡猾,請務必謹慎定義。一般來說,人們普遍認為人工智慧指的是模仿人類智慧和能力的科技。


 


人工智慧領域中發展尤為神勇的一個分支是神經網路,該系統可像人類那樣通過訓練來「學習」,把學習經驗轉變為模擬神經元網路。最終生成的不是代碼,而是晦澀難辨、紛亂複雜的數百萬、甚至數十億個人工神經元。這也解釋了創造現代人工智慧的科學家何以對人工智慧完成任務的方式表示費解。


 


大多數研究人員一致認為,了解人工智慧是一項迫在眉睫的挑戰。如果我們不理解人工智慧的工作方式,那我們如何確定它是否帶有偏見,又如何預測它可能出現的錯誤?


 



隨著人工智慧的日趨複雜和普及,它的影響力也越來越大。有人建議,在自動駕駛汽車發生不可避免的碰撞時,應由人工智慧判斷哪個司機的存活幾率最大。圖為處於自動駕駛模式的優步車輛。知道人工智慧什麼時候會有意外之舉,這一點很重要。圖片來源:Eric Risberg/Associated Press


 

人工智慧會不會是種族主義者?它會不會有一些意想不到的「腦迴路」,引發自動駕駛車輛失靈,造成車禍?這些我們都無法提前預知。只有在它做出了無數個決定後,我們才可能了解到它是否有偏見。知道人工智慧何時會失靈,何時會有意外之舉,何時會告訴我們:「對不起,戴維,恐怕我辦不到」,這一點非常重要。


 


曾在圖片社交網站Pinterest Inc.研究機器學習的軟體工程師Tracy Chou說:「現在的一大問題是,人們以為人工智慧或機器學習不帶偏見,十分中立。之所以有這個印象,很重要的一個原因是,大家沒有認識到,設計人工智慧模式的是人,給它們選擇訓練數據的也是人。」


 


谷歌翻譯(Google Translate)便是一例。比如,讓它將英文單詞「doctor」(醫生)譯成葡萄牙語,它給出的總是陽性名詞médico,而不是陰性名詞médica。讓它翻「nurse」(護士),它給出的則是陰性名詞enfermeira,而不是陽性名詞enfermeiro。

 


陰謀嗎?非也。用本身就帶有偏見的文學庫來訓練翻譯系統,後者自然一脈相承地也有了偏見。若研究人員刪除種族這個類別,數據一樣帶有偏見,因為還有其他與種族關係密切的數據(比如一個人在哪裡生活),那些數據就成了種族的代名詞。


 


機器人畢竟不是人,我們不能直接問一個機器人,你為什麼要做這件事?不錯,人工智慧可以出色地完成一些片面任務,而實際上,即便是那些會說話的機器人,其自我反思能力跟一隻蟑螂差不了多少。


 

這是個很難攻克的課題,美國國防高等研究計劃署(Defense Advanced Research Projects Agency,簡稱:Darpa)正在為「可解釋人工智慧」項目提供資金支持。


 


下面說說這個課題為何難以被攻克。在計算機科學領域,要想解決某個問題,有個好辦法是讓工程師編寫一個神經網路(相當於原腦),然後給它灌輸海量數據來訓練它。舉例來說,只要人工智慧有足夠的時間去消化一堆貼有「貓」標籤的圖像,那它就可以挑出貓的照片。


 


難點在於,神經網路是通過內在的「自我改造」完成學習任務的。人腦基本上也是這樣工作的。就像我們無法理解人腦中約860億個神經元之間的相互連接一樣,人工智慧「思考」的具體方式亦令我們費解。

 


工程師將上述情況稱為「可解釋性」問題(也就是尚無法解釋),把神經網路稱為「黑匣子」(我們可以模擬和觀察、但無法了解其內部的東西。)


 


Alphabet Inc.子公司DeepMind Technologies Ltd.的研究人員宣布了一個探索機器心智的獨闢蹊徑之道:像對待孩子一樣對待機器。


 

也就是說,工程師對人工智慧使用認知心理學技術,這並不是比喻。參與這個項目的DeepMind的科學家巴雷特(David Barrett)說,為了梳理人工智慧的所思所想,DeepMind團隊對人工智慧用的測試題和材料與心理學家對兒童用的一模一樣。


 


巴雷特說,幾十年來通過認知科學解開人腦之謎的研究如今應用到了機器上,有可能打開一扇認識人工智慧的新大門,讓人工智慧變得更易懂。


 


DeepMind的研究結果之一是讓我們知道了,至少有一種人工智慧(用來認字的「一次性學習模式」,那些字只給它看一眼)用的是和人類一樣的解決問題的方式,真是令人吃驚。它也是通過形狀來識別物體,哪怕沒人教它這麼做,哪怕識別隨機物體還可以通過顏色、質地或動作等其他方式。以前它的學習方式不為人知。

 


理解只是我們與人工智慧互動的第一步。機器人心理學的另一半可被形容為「心理治療」,也就是說,改變它的想法。


 


巴雷特說,工程師在創造人工智慧時,為了找到最棒的那個,一般會做出很多版本,而使用認知心理學能讓工程師擁有更多「實權」,可以選擇那些按照人類希望的方式去「思考」的機器。又或許,人工智慧的思考方式與我們不同,而且更好,這樣我們就可以學點解決問題的新辦法。


 


結果就是,當我們用人工智慧替代人類決策者時,人工智慧有更上一層樓的潛力,變得更少出錯,更加可靠,因為人工智慧的行為是可衡量的,我們或許可以精確追溯它們做決定的整個過程。


 


對於人類的行為,我們一直也是這麼要求的(如在法庭上剖析一個商業決定),但眾所周知,人類是不可靠的敘述者。有了機器人後,我們終於迎來了剛正不阿的決策者,它們的所有偏見和一閃而過的衝動都可以被仔細審視和修正。


 



你可能還關注:


下一代汽車,可能是車輪上的客廳



10年後的iPhone不再是手機





喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 華爾街日報·派 的精彩文章:

父母的偏心對孩子的傷害有多大?
扎克伯格「微服私行」記
"華爾街日報·派"7月最火的文章是哪些?

TAG:華爾街日報·派 |

您可能感興趣

傅盛:做機器人並不是心血來潮,已研發完整核心機器人技術鏈
當人工智慧進軍醫療領域:你是否敢把自己交給機器人醫生?
你未來的醫生可能是機器人 人工智慧在醫學領域崛起
「機器人飼養員」爆紅:那些新零售催生下的「怪」職業
華數機器人:不忘初心,做最好的工業機器人
不久的將來,機器人將導致醫生集體失業?
機器心理學家:可能是未來唯一不會被AI取代的職業
不會被機器人取代的職業 酒店管理了解一下
這家谷歌投資的公司,要讓醫生都用上機器學習治病救人
將來會被機器人取代的職業有哪些?機器人已經淘汰了很多職業
做工業生產的「裁縫」,焊接機器人市場前景可期
未來的什麼職業機器人不能取代?
診斷心臟病,機器演算法即將超過最強人類醫生
這種蝴蝶狀生物機器人可能會挽救心臟病人的生命
饑渴的工業機器人人才市場
未來的科技,人類和機器人要融合,不得不服啊
《機器人總動員》科技感和未來感十足的愛情冒險片
哪些職業機器人取代不了?
養老機器人給養老產業帶來的是什麼?
未來農業:智能機器人的研究走到了哪一步?