當前位置:
首頁 > 最新 > 懷疑論者認為,深度學習「貪婪、脆弱、不透明、淺薄」

懷疑論者認為,深度學習「貪婪、脆弱、不透明、淺薄」

編者按:在人工智慧火爆之後,迎來了反思。人們開始發現,人工智慧並不是萬能的溶劑,它只是一個工具。這個工具本身帶有諸多弊病。近日,《連線》雜誌發表了傑森·龐廷(Jason Pontin)的一篇文章,文章中闡述了當前人工智慧發展中遇到的問題。文章由36氪編譯。

谷歌首席執行官桑德爾·皮查伊(Sundar Pichai)表示,人工智慧帶來的影響將會「比電或火更深遠」。谷歌大腦的創始人吳恩達(Andrew Ng)在投資人工智慧創業公司時表示,

如果一個普通人能夠在不到1秒的時間內完成一項思考任務,那麼也許我們現在或不遠的將來就能用人工智慧將這項任務自動化了。

他們的熱情是可以原諒的。在經歷了幾十年的挫折之後,人工智慧領域取得了顯著的進步。今天,我們可以告訴像Alexa這樣的語音控制的個人助理「播放音樂」,或者在Facebook上自動標記我們的照片,谷歌翻譯基本上快要達到人類翻譯的水平了。在過去的五年里,數十億美元的研究資金和風險資本流向了人工智慧,這也是麻省理工學院和斯坦福大學計算機科學項目中最熱門的課程。在矽谷,人工智慧專家們每年能夠獲得50萬美元的薪水和股票。

但是,有很多事情是人們可以快速完成,而智能機器卻無法做到的。自然語言已經超越了深度學習的範疇,人工智慧很難理解新的情況,這些缺點都不可能很快得到解決。一旦你看到你看到了它,你就不能忽視它:深度學習,目前人工智慧領域的主導技術,不太可能使普通人的活動自動化。

弄清楚為什麼現代的人工智慧擅長做一些事情,而在其他方面卻很糟糕,有助於理解深度學習是如何工作的。深度學習是一種數學:是一種計算機通過神經網路學習對模式進行分類的統計方法,神經網路具備輸入和輸出,有點像我們大腦中的神經元。當它們擁有多個隱藏的層,包含許多節點,有大量的連接時,就會被認為是「深度的」。深度學習採用一種稱為反向傳播的演算法,這種演算法可以調整節點之間的數學權重,這樣輸入後就能產生正確的輸出了。在語音識別中,音素c-a-t應該拼出「貓」一詞,在圖像識別中,一張貓的照片不能被標記為「狗」等等。當神經網路被訓練識別音素、圖片時,深度學習則「受監督的」,會使用數百萬或數十億個有標記的例子。

深度學習的進步是模式識別的產物:神經網路記憶事物的種類,當它們在遇到這些事物時,或多或少能夠準確地識別出來。但是幾乎所有的認知問題都不是分類問題,

人們天真地認為,如果你進行深度學習,將其分100層,再加上1000倍以上的數據,神經網路就能做任何人類能做的事情,」谷歌的研究員弗朗索瓦·喬利特(fran ois Chollet)說。「但那不是真的。

紐約大學認知心理學教授、Uber人工智慧實驗室主任加里·馬庫斯(Gary Marcus)最近發表了一系列引人注目的文章,對深度學習提出了批判性的評價。馬庫斯認為深度學習不是「一種萬能的溶劑」,而是一種工具。

馬庫斯擔心人工智慧正朝著一堵牆衝過去,除此之外,它還面臨著模式識別無法解決的所有問題。該領域大多數領軍人物都不認可他的觀點,Facebook人工智慧研究部門的主管揚·勒恩(Yann LeCun)以「完全錯誤」的態度駁斥了這一觀點。多倫多大學的名譽教授、反向傳播的教父傑弗里·辛頓(Geoffrey Hinton)認為,「沒有證據」表明存在潛在的障礙。

像馬庫斯這樣的懷疑論者認為,深度學習是貪婪、脆弱、不透明和淺薄的。系統是貪婪的,因為他們需要大量的訓練數據。脆弱是因為當神經網路被給予一個「轉移測試」的時候,即面對與訓練中使用的例子不同的情景時,它不能情境化,經常會出現斷裂。它們是不透明的,與傳統可調試的代碼的程序不同,神經網路的參數只能用數學中的權重來解釋。因此,它們是黑盒子,產出的結果無法被解釋,這引發了人們對其可靠性和偏見的懷疑。最後,它們是淺薄的,因為它們的編程中沒有什麼先天的知識,對於世界或人類心理沒有共情感。

這些限制意味著許多自動化將比人工智慧所設想的更加難以捉摸。「自動駕駛汽車可以行駛數百萬英里,但它最終會遇到一些新的、它沒有任何經驗東西,」佩德羅多明斯解釋道,他是華盛頓大學計算機科學教授和計算機科學教授。 華盛頓大學計算機科學教授、《The Master Algorithm》一書的作者佩德羅·多明戈斯(Pedro Domingos)解釋道。

機器人可以學會拿起瓶子,但如果你想要它拿起一個杯子,就得從頭開始訓練。

今年1月,Facebook放棄了M,這是一種基於文本的虛擬助手,它被設計用來利用人類來補充和訓練一個深度學習系統,但從未提供有用的建議或自然使用的語言。

這到底怎麼了?「這一定是因為,我們頭腦中的學習演算法比我們為機器想出的任何東西都要好,」多明戈斯說。懷疑論者斷言,我們需要發明更好的機器學習方法。馬庫斯認為,人工智慧的補救方法是「融合性」:將深度學習與無監督學習技術結合起來,而不依賴於被標記的訓練數據,也不依賴於深度學習興起之前主導人工智慧的邏輯規則。馬庫斯聲稱我們最好的智能模型是我們自己,人類有很多種思維方式。即使在沒有很多例子的情況下,孩子們可以學習語言的一般規則,這是他們與生俱來的能力。他說,

我們生來就知道世界上存在著因果關係,整個世界是由各個部分組成的,是由在空間和時間中持續存在的地方和物體組成的,沒有任何一台機器能用反向傳播來學些這些東西。

其他研究人員有不同的想法。佩德羅·多明戈斯說,

從20世紀50年代開始,我們就使用了與機器學習相同的基本範式,最終,我們需要一些新的想法。

喬利特在synthesis程序中尋找靈感,這種程序可以自動創建其他程序;辛頓目前的研究正在探索一個被他稱為「膠囊」(capsules)的概念,它保留了深度學習的反向傳播演算法,但也解決了一些局限性。喬利特說,

在人工智慧中,有很多核心問題都是完全沒有解決的,甚至在很大程度上還沒有被人提及。

我們必須回答這些問題,因為有許多任務是人類不願意做的,比如清理廁所和對色情作品進行分類,或者在一些領域,智能機器會做得更好,比如發現治療疾病的藥物。更重要的是,智能機器能夠做到的一些事情是我們無法做到的,其中是我們無法想像的。

編譯組出品。

編輯:郝鵬程、王雅琪


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 36氪 的精彩文章:

區塊鏈:革命性的技術還是徹頭徹尾的謊言?
不老不死的「人造人」現身CES,黑科技掃臉識別身份

TAG:36氪 |