當前位置:
首頁 > 科技 > 「眾矢之的」馬庫斯回應14個問題,將深度學習質疑到底

「眾矢之的」馬庫斯回應14個問題,將深度學習質疑到底

安妮 維金 李杉 編譯自 Medium

量子位 出品 | 公眾號 QbitAI

深度學習的質疑者中有位戰士。

Gary Marcus

他是馬庫斯(Gary Marcus),紐約大學心理學教授,曾任Uber AI實驗室的負責人。新年第二天,他發表長文提出深度學習的十大挑戰,犀利指出「深度學習不是萬能溶劑,只是眾多工具中的一種」。

一石激起千層浪。深度學習圈大面積的「煉丹師」已經坐不住了,贊同和怒懟交織湧向馬庫斯。

馬庫斯敗陣而歸?Naive了。昨天,馬庫斯再髮長文,他收集了14個被質疑的觀點並實力回懟。

無監督學習適用於何處?馬庫斯為什麼一開始就對深度學習持否定態度?對於可微分編程他又怎麼看?

量子位將這篇文章翻譯整理如下:

1. 什麼是通用智能?

AAAI前主席Thomas Dietterich是一位著名的機器學習教授,也是迄今為止最徹底和最直率的批評者。他曾給出一個我很贊同的答案:

「通用智能」是一套可以在廣泛目標和環境中採取智能行為的系統。在Russell和Norvig的教科書中,他們對智能的定義是「理性的行為」。

2. 馬庫斯對深度學習太不友好了

前面提到的Dietterich談到了這兩點:

我對@GaryMarcus的文章很失望。他很少提到深度學習的成就(例如自然語言翻譯),還輕視他人,比如說ImageNet中的1000個分類太少了(很有限)。

關於第一部分。沒錯,我是應該多說些好話,但我並不是從來不說好話。在之前提到Dietterich的文章的第一頁我就說過:

從那時起,深度學習在語音識別、圖像識別、語言翻譯等領域產生了大量的尖端成果,並在當前的人工智慧應用領域發揮了重要作用。

此外,我還在文章的後面引用了一些優質的文章和博客。但提到的這些內容,很多都不算是通用人工智慧,這是我論文的重點。比如谷歌翻譯效果不錯,但它不是通用的。它不能回答與它已經翻譯的內容有關的問題,而人類翻譯卻能做到。

第二部分更為實質性。1000個類別真的非常有限嗎?與認知的靈活性相比確實如此。認知科學家通常把一個人所知道的不可分割的概念的數量定為5萬左右,人類可以很容易地把這些概念組合成大量複雜的思想。寵物和魚很可能被算到這5萬裡面;寵物魚則不同的,很可能沒有被計算在內。

我可以很容易地想到「一隻寵物魚生病了」,或者注意到「買一條寵物魚後發現它生病了總是令人很失望」(我小時候有過這種經歷,顯然至今仍然很討厭這種狀況)。我能表達多少類似的想法?肯定遠超1000。

我不太確定一個人能識別多少個視覺類別,但懷疑數字大致相似。在谷歌上搜搜「寵物魚」的圖片,效果不錯。搜搜「戴護目鏡的寵物魚」,你會看到戴護目鏡的狗,錯誤率超過80%。

在區分相似品種狗的過程中,機器可以勝過不具備專家水平的人類,但是人類卻在解釋複雜的場景時勝出,比如一個戴著背包而不是降落傘的跳傘者會發生什麼。

在我看來,專註於1000個類別的機器學習本身就是一種「幫倒忙」,它只是帶來了短期的成功感受,但卻否認了更困難、更開放的問題(例如場景和句子理解),而後者必須最終解決。與我們能看到和理解的幾乎無限的句子和場景相比,1000確實很小。

3. 馬庫斯說深度學習沒用,但這在很多方面都表現優異

當然有用。我從來沒有說過深度學習沒用,我只說過,a)在目前的監督模式下,深度學習可能已經接近極限,b)那些限制將在完全的通用人工智慧出現後消失——除非,也許,我們開始融合一些其他的東西,比如符號處理技術和先知。

我的結論的核心是:

儘管我提出很多問題,但我不認為我們需要放棄深度學習。

相反,我們需要重新定義它:不是作為一種萬能溶劑,而是簡單地作為一個工具,就像一個強大的螺絲刀,而我們同時還需要鎚子、扳手和鉗子,更不用說鑿子、鑽頭、電壓表、邏輯探針和示波器。

4. 「有一件事我不明白。@GaryMarcus說,深度學習對層次結構不太好。但@ylecun在自然評論文章中說,深度學習特別適合利用這種層次結構。」

這是一個狡猾的問題,是Ram Shankar提出來的。我應該更清楚地給出答案:層次結構有很多類型。對於LeCun討論的功能層次來說,深度學習是很好的,甚至可能是最好的,我通常把它稱為層次特徵檢測;就用像素構建線條,用線條表示字母,用字母表示單詞,等等。

Kurzwel和Hawkins也強調了這類問題,這可以追溯到Hubel和Wiesel(1959)的神經科學實驗,而在AI領域則可以追溯到Fukushima(Fukushima, Miyake, & Ito, 1983)。

Fukushima在他的Neocognitron模型中,手動連接那些依次更有抽象特徵的層次;LeCun和其他許多人後來證明,其實不需要手動完成(至少在某些情況下)。

但是在這個過程中,你不需要追蹤遇到的部件,頂層系統不需要依據過程中看到的部分明確對整個輸出的結構進行編碼;這就是為什麼一個深度學習系統可以被欺騙,導致其把黑色和黃色條紋誤認成校車。(Nguyen, Yosinski, & Clune, 2014)。

條紋模式與校車輸出單元的激活緊密相關,後者反過來與一組低級特徵相關,但在一個典型的圖像識別深度網路中,沒有一個由車輪、底盤、窗戶組成的完整的校車典型。幾乎所有欺騙神經網路的文獻都利用了這一點。

我所討論的結構上的層次不同於這種特徵的層次,它關心的是讓系統可以從整體明確推斷出有哪些部件。經典的例子是Chomsky講的層次結構:一個句子由日益複雜的語法單位構成。我不認為深度學習能處理好這些問題,儘管它們做過嘗試。

即使在視覺上,這個問題也沒有完全解決。例如,Hinton最近的「capsule」(Sabour, Frosst, & Hinton, 2017)就是一個嘗試,通過使用更結構化的網路,來構建更強大的由部分到整體的圖像識別。我認為這是一個很好的趨勢,也是解決欺騙問題的一種可能方式,但也反映了標準深度學習方法面臨的問題。

5. 「在通用人工智慧的背景下討論深度學習很奇怪,通用人工智慧並不是深度學習的目標!」

推特上的最佳反駁,來自魁北克大學的教授Daniel Lemire:「噢!得了吧!Hinton,Bengio……都在公開的尋找人類智慧的模型。」

第二個最佳反駁,來自就職於谷歌的數學博士Jeremy Kun。他不同意「通用人工智慧不是深度學習的目標」的說法,理由是「如果這是真的,深度學習專家肯定就不出來糾錯了」。

我曾引用《哈佛商業評論》中吳恩達的文章,暗示了深度學習將很快做到人類能做到的事情。Thomas Dietterich的推特也說過「深度學習似乎沒有邊界」。Kaggle前主席Jeremy Howard擔心這種深度學習被過度吹捧的想法本身就被誇大了,並表示所有曾被認為是障礙的事情,都已經被克服了。

在DeepMind關於AlphaGo的一篇論文中提到的觀點也有些類似:

我們的研究結果已完全證明,即使在最具挑戰性的領域,單純用(深度)強化學習的方法也完全可行。

在這篇論文的結尾討論中,我之前提出的深度學習的十大挑戰一個都沒被提到。

我們之所以一直對人工智慧系統進行基準測試,主要是因為我們的目標是通用人工智慧。

6. Marcus所說的是監督學習,而不是深度學習的問題。

Yann LeCun在我Facebook頁面的評論區中說:

我沒有時間去做適當的回應,但簡而言之:1)我認為這大部分是錯的,但如果將論文中所有的表述從「深度學習」改為「監督學習」,那麼錯得不是那麼厲害;2)在過去兩年半中,我一直在提倡的是,探索各種方法,從無監督的學習和推理方向去拓展深度學習的概念。這不是我的一時興起,實際上我一直在這樣做。你也清楚這點,但這沒有體現在你的論文中。

我被指控沒有注意到LeCun近期的工作,這很奇怪。確實,我沒有找到一篇很好的、可以引用的總結性文章(LeCun也在電子郵件中告訴我,現在還沒有這樣的總結文章),但我明確提到了他的興趣:

深度學習先驅Geoff Hinton和Yann LeCun最近都指出,在突破受監督、需要大量數據的深度學習版本方面,無監督學習是個關鍵方法。

我還指出:

顯然,深度學習和無監督學習在邏輯上並不是對立的。深度學習主要用於帶標籤數據的有監督環境,但我們也可以通過其他途徑,以無監督的方式來利用深度學習。

我的結論也是積極的。雖然我對目前建立無監督系統持保留態度,但我最終得出了樂觀的結論:

如果我們能建立(無監督)系統,讓系統自主設立目標,在更抽象的層面進行推理,解決問題,那麼或許很快就能取得重大進展。

LeCun觀點的正確之處在於,我提到的許多問題都是監督學習的普遍問題,而不是針對深度學習的問題,我本可以更清楚地說明這點。許多其他監督學習技術也面臨著類似挑戰,例如對大型數據集泛化和依賴。我提到的深度學習獨有的問題確實相對較少。在我關於深度學習的評論中,確實忽略了這點。

然而,就算他監督學習技術的情況也是如此,也對深度學習的前景沒什麼幫助。如果有人能設計出一種強大的系統,以無監督方式去利用深度學習技術,那麼我們可能需要重新評價深度學習。

然而我並不認為,無監督學習,至少是在當前情況下,能解決我提出的挑戰,例如關於推理、層級表示、遷移、健壯性和可解釋性等方面的挑戰。這只是遙遠的設想。

正如波特蘭州立大學聖達菲研究所教授Melanie Mitchell所說的:

@ylecun說,Marcus的文章是「完全錯誤」的,但如果局限至「受監督學習」,那麼「錯得不那麼嚴重」。我很想看看,目前有哪些無監督學習項目的案例能證明Marcus的說法是錯誤的。

我也很想看看。

與此同時我認為,目前還沒有原則性的理由,去相信無監督學習能解決我提出的問題,除非首先加入更抽象的、象徵性的表達。

7. 深度學習不僅是(像Marcus所說的)只有卷積網路,這「本質上是一種新的編程風格」:可微分編程。這個領域的研究者正嘗試以這種風格找出可重用的架構。我們已經獲得了一些:卷積、pooling、LSTM、GAN、VAE、存儲單元、路由單元等。—— Tom Dietterich

從Dietterich的一系列Twitter消息來看,這是一種批評,但我對此感到困擾,因為我實際上是可微編程的支持者,並且一直也在這麼說。或許重點在於,深度學習可以更寬泛地去理解。

在任何情況下,我都不會把深度學習和可微編程(例如我引用的一些方法,包括神經圖靈機和神經編程)等同起來。深度學習是許多可微系統的組成部分,但這樣的系統也基於從符號處理中提取的元素,包括內存單元和變數操作,以及類似路由單元的其他系統。

實際上,我一直在呼籲這方面的整合,並且在最近兩篇文章中強調了這些。如果把所有這些東西整合至深度學習能給我們帶來AGI,那麼我的結論將被證明是正確的:

從某種程度上來說,大腦可以被看作包含「廣泛的可復用基元陣列——,這些基本單元可以處理類似微處理器中基本指令集的東西。這些陣列並行地整合到一起,就像FPGA這種可重配的集成電路」。正如我在其他論文中所說,為我們的計算系統構建更豐富的指令集將是件好事。

8. 現在vs未來。或許深度學習現在行不通,但其後續技術可能讓我們實現AGI。

或許是這樣。我確實認為,如果首先加入一些關鍵的東西(很多還沒有被發現),那麼深度學習可能會在我們實現AGI的過程中發揮重要作用。

然而,關鍵的是我們能添加什麼,以及將某些未來的系統稱作深度學習的實例是否合理。或者,一種更明智的方法是將「終極系統」稱作「使用了深度學習方法的某種東西」。這取決於深度學習是否適合最終解決方案。例如,或許在真正的自然語言理解系統中,符號處理的重要性可能會等同於、甚至超過深度學習。

毫無疑問,這個問題部分取決於如何運用術語。一個朋友最近問我,為什麼我們不能把所有包含深度學習技術的東西統稱為深度學習,即使這其中涉及到符號處理?對深度學習的一些增強應當發揮作用。而我對此的回答是:為什麼我們不能把所有包含符號處理的東西統稱為符號處理,即使這其中涉及到深度學習?

基於梯度的優化應該得到認可,但符號處理也是如此,因為這是用於系統性表達,實現更高層次抽象的唯一已知工具,是全世界幾乎所有複雜計算系統,無論是電子表格、編程環境,還是操作系統的基礎。

我推測,最終,這兩種技術將不可避免地聯姻,從而將20世紀人工智慧最偉大的兩種思想,即符號處理和神經網路結合在一起。這兩種思想都誕生於20世紀50年代。其他尚未發明出來的新工具可能也是關鍵。

對於深度學習的真正追隨者來說,任何東西都是深度學習,不管其包含什麼,與當前技術有多大不同。如果你將經典符號微處理器中的每個晶體管替換為一個神經元,同時保持晶元的邏輯完全不變,那麼深度學習的追隨者仍然會宣稱勝利。然而,如果只是將這些東西堆積在一起,我們並不理解驅動最終成功的原理。

9. 不存在可推斷的機器。指望一個神經網路從偶數泛化到奇數是不公平的。

找規律——

f(110)=011

f(100)=001

f(010)=010

那麼,f(111)=?

正常人類不難推斷出,函數不就是把括弧里的數字反過來了么,結果明顯是111。但對神經網路來說,理解這些抽象概念真是太難了,連簡單的「奇數和偶數」的概念都可能是個挑戰,因為神經網路沒有整數的先驗概念。

神經網路難以理解抽象概念背後,有三個本質問題。

首先,神經網路不能推斷人類無法推斷的東西。判斷奇數和偶數這種問題對神經網路很不公平,因為我們並沒有給出訓練規則。

因為人類的注意力在更高的規則上,能用「外推法」找出抽象概念之間的關係。這是種在訓練樣本外,對一對一映射進行泛化的能力。如果想讓機器的理解超過人類,那這明顯是場不公平的較量,因為人類顯然是在依靠先驗知識,而機器沒有。

正確的先驗知識幫助神經網路獲得和表示普遍量化的一對一映射,而一般的神經網路基本無法表示這樣的映射。重點是,一些特定類型的神經網路可能沒有好方法將正確的先驗知識整合起來。

其次,如果我們想得到AGI,就應該讓系統學會上述的一般化概括。

第三,也不能找借口說目前還沒有系統能夠做我說的這種推斷,隨手可用的微軟Excel中的快速填充函數就能推斷數值。背後並不是機器學習在支持這種推理,但它能在很窄的環境中進行推斷。

由此推斷,只有建立在變數之上的「混合運算」才能完成這種抽象推理任務,這與大多數人看好的卷積神經網路有很大不同。

用一種不同的方式反思目前大多數機器學習系統,它們只是不打算「跳出框框」思考。這對某些目的來說是可以的,但對其他目的卻不行。如果想實現通用人工智慧,機器的推斷必須跳出這些框框,達到人類思考的寬度。

10. 這個領域所有人都知道這些,沒什麼新鮮的。

當然不是所有人。就像我之前說過的,很多評論者認為我們還不了解深度學習的局限性,還有一些人認為局限性可能存在,但還沒被發現。

也就是說,我從來沒說過我的觀點是全新的,我也引用了一些其他學者的工作,他們都獨立地得出了相似的結論。

11. 馬庫斯沒引用X。

絕對正確。我所做的文獻綜述不夠完整。

在沒能引用的論文中,Shanahan的深度符號強化學習(Garnelo, Arulkumaran, & Shanahan, 2016)是我的最愛之一,忘了提Richardson and Domingos』 (2006)的馬爾科夫邏輯網路也是簡直難以置信,同樣,我也希望自己當時引用了DeepMind一篇非常優秀的論文Evans and Edward Grefenstette (2017),以及Smolensky的張量微積分工作和Noah Goodman的概率編程。這些工作,都想拉近規則和網路的距離。

還有Jordan Pollack、Forbus和Gentner、Hofstadter和Mitchell等人關於模擬的工作等等。我相信還有更多的文獻可以引用。

總的來說,我想選擇有代表性的文獻,不求全面,但的確做得還不夠好。

12. 馬庫斯沒資格在這個領域說三道四,他不是實踐者,只是個評論家而已。

我很猶豫要不要談這個問題,但是各種回復里都提到了這一點,甚至很多知名人士也在說。正如Ram Shankar所說,作為一個社區,我們的批評必須限制在基於科學和價值的討論上。雖然我堅信自己的資歷足以做出這些評論,但我還是想說,資格不重要,論證的有效性才重要。

我的論點要麼是對的,要麼是錯的。

13. 回復:需要層級結構的話,Socher的tree-RNN怎麼樣?

我給他寫了郵件,想更好地了解這項研究的現狀。我私下裡也在推動其他幾支團隊做類似於Lake and Baroni (2017)的嘗試。

Pengfei et al (2017)在這方面也有一些有趣的討論。

要詳細了解tree-RNN,見斯坦福CS224n第14課,地址:https://www.youtube.com/watch?v=RfwgqPkWZ1w

14. 你還可以對深度學習更挑剔一些。

其實,沒人確切地這麼說,但是有些人私底下跟我說了一些類似的話。

比如說我的一個同事指出,我們對未來的預測可能存在嚴重的錯誤:

我們就像站在遼闊的平原上,看見了很多低垂的果實,但一旦果實消失,深度推理的進展(就會放慢)。另外,現在識別貓的準確率才95%,我不清楚人們為什麼就該認為我們會遇到AGI、倫理、道德等等難題,這些難題要在更複雜的空間中才能存在。

他還說:

(研究人員)在某些領域去的勝利的速度太快了。比如說圖像處理,我們發現了一類更適合計算機去做的圖像處理問題,但這些演算法可能被對抗攻擊搞暈,而且當它們出錯的時候,常常錯得離譜。

與之相反的是,我在街上開車,可能會把樹當成路燈,但不會像這些深度學習應用一樣犯這麼離譜的錯誤,因為我對意義和語境有深刻的理解。確實,人們熟知這些局限,但同時,那些ImageNet結果也讓人產生了這樣一個基本觀點:計算機比人類更擅長識別圖像。

我還有一個同事,機器學習研究員Pedro Domingos說,現在的深度學習方法還有一些我沒有提到的缺點。就和其他靈活的監督學習方法一樣,深度學習系統也是不穩定的,訓練數據中的細微變化就會導致結果模型中的巨大差異。

就算少量數據就夠用,它們也需要更多的數據。數據擴充(data augmentation)很昂貴,而且從人類的角度來看並不是必須的。

它們可能很脆弱。對數據的一點小改動——比如翻轉數字數據集中的黑白顏色,就能引發災難性的失敗。

它們的準確率通常比我們所推斷的要低。比如說Ribeiro,Singh和Guestrin (2016)發現,演算法能精確區分ImageNet中的狼和狗,其實靠的是狼圖像中的白雪。

在機器學習的歷史中,到目前為止,每一種範式都在風靡十年左右之後喪失了突出優勢。比如80年代的神經網路、90年代的貝葉斯學習和2000年代的Kernel方法。

正如Domingos所說,我們無法確保這種大起大落不會重演。從1957年Rosenblatt第一次提出感知器Perceptron以來,神經網路的地位幾經起落,我們不應該把周期性的熱情混同於智能的完整解決方案,在我看來,後者還需要幾十年的努力才能實現。

如果我們想要實現AGI,就需要在感受成功的同時,敏銳察覺到我們所面臨的挑戰。


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 量子位 的精彩文章:

怎樣三天訓練出AI圍棋大師?教你AlphaGo Zero的3個trick

TAG:量子位 |