有AI的地方就會有江湖,大神們在吵什麼?
來源:科技日報 ,作者:佳星
真應了《笑傲江湖》里那句:「有人的地方就會有江湖,有江湖就有恩怨。」只是這次的江湖和恩怨都源自人工智慧而不是人。
1月中旬,紐約大學教授馬庫斯發表一篇萬字長文,以問答形式,分14個問題回應那些對他的觀點表示質疑的人,其中涉及紐約大學教授、臉書首席AI科學家楊立昆、AAAI前主席托馬斯·迪特里奇,魁北克大學教授、谷歌的數學博士等也捲入了論戰中。
這不是論戰的第一回合,1月初,馬庫斯就提出了自己關於深度學習的十大觀點,引得楊立昆直擺手:他說的都不對。
究竟是什麼樣的爭議讓AI界的大神們辯論火力如此密集,連戰數日,費勁口舌、逐字力爭呢?
深度學習是個「筐」 有人看半滿,有人看半空
細讀馬庫斯後來發的這篇萬字長文,可以發現,不少人對他的質疑是:你忽略了深度學習取得的成績、你沒有說深度學習有哪些好處。言外之意,你對深度學習不是「真愛」,對它的好視而不見。
而以楊立昆為代表的一派,對深度學習絕對是「真愛」。從維基百科的介紹中可以看到,正是楊立昆提出了卷積神經網路(Convolutional neural networks,簡稱CNNs)理論,並成為CNNs得以實現的奠基人,這一網路正是實現深度學習的機器學習模型之一。
儘管由CNNs、RNNs(循環神經網路)、DNNs(深度神經網路)等構成的深度學習模式日漸成熟,據說網路層數已經能達到100多層,但馬庫斯認為,它仍有目前無法規避的十大問題,例如,極度依賴數據、學習過程是個「黑箱」、還不能自適應規則變化等等。
「深度學習存在不少問題,例如深度學習是固執己見的。」清華大學教授馬少平的觀點與馬庫斯相一致。
他舉例說,一輛AI驅動的無人車可能在模擬環境中撞樹5萬次才知道這是錯誤行為,而懸崖上的山羊卻不需要多少試錯機會,改變深度學習的輸出很難,它缺乏「可調試性」。
另外,深度學習的過程如果是黑箱,會影響它的應用領域,例如診斷病症。「AI運算像在一個黑箱子里運行,創造者也無法說清其中的套路。」馬少平說,AI雖然可能給出一個結論,但是人類如果無法知道它究竟是怎麼推算出來的,就不敢採信。
在製造「噪音」的情況下,AI很容易判斷錯誤。「它無法自動排除噪音,人眼看著是熊貓,AI卻會誤認為是長臂猿。」馬少平認為,AI仍處於初級階段,還有很多問題等待解決。
在馬庫斯列出的十大問題中,最要命的是最後一條,深度學習很難穩健地實現工程化。這相當於給深度學習引領AI走向強智能的可能性亮了紅燈。
北京語言大學教授荀恩東解釋,工程化意味著有「通行」的規則。例如對某一個問題的解決方法確定了,可以固定化,哪裡需要往哪裡搬。而深度學習進行問題處理時,採取類似於完成項目的方式,一個一個地解題,然而世界上有無數問題,如果很難保證機器學習系統換個新環境還能有效工作,那深度學習這項技術可能並不合適幫助AI獲得通行的能力,引導和人類智能相當的強人工智慧的實現。
這種對深度學習的尖銳批評,自然會讓深度學習的擁躉們很不滿意。他們的理由也很充分:這些問題只是現階段的,未來不一定得不到解決。批評者看到的是深度學習這個筐半空,而支持者看到的則是半滿。
AI也有門派 各有擁躉,各有所長
回應馬庫斯對深度學習的質疑,楊立昆簡單直接:「有想法,也許吧,但大部分都是錯的。」
直截了當的殺傷性,遠大於長篇大論的反駁。潛台詞是:「爺不和你聊了」。其實早在2017年10月5日,馬庫斯和楊立昆就在紐約大學組織的學術辯論會上唇槍舌戰。當時他們是有共識的——AI仍處於起步階段;要實現強人工智慧,機器學習從根本上來說是必要的;深度學習是機器學習中一項強大的技術等。
然而他們辯論後沒多久的10月19日,DeepMind團隊發表了最新論文,提出了全新的強化學習演算法阿爾法元,它可以從零開始,通過自我對弈精通棋藝,堪稱「通用棋類AI」。
「事實勝於雄辯」,這就好比先秦時期諸子百家論道,法家學說最終壯大秦國。楊立昆自上世紀80年代提出「人工神經網路」理論以來一度被否,直到他在2013年加入臉書團隊後,其理論才慢慢開始變得熱門,如今他有了這樣強大、知名的佐證。
任憑馬庫斯總結概括深度學習的弱勢,以阿爾法元為代表的深度學習卻向前邁出了強大的一步,也讓越來越多的人傾向於相信,AI可以通過訓練具備和人同等的智商,這也是臉書人工智慧研究院的研究人員所致力的工作——使機器不需依賴人類訓練,學會自己構建內在模型。
而另一些科學家則特立獨行,他們執意證明深度學習並不是必須的。2017年12月18日,《科學》雜誌刊登了一個叫Libratus的AI成果,它在持續了20天的12萬手比賽中擊敗了4位頂級人類玩家。它的設計者卡內基梅隆大學博士生Noam Brown說,其間不使用任何深度學習,希望有助於人們認識到AI比深度學習更重要,深度學習本身不足以玩撲克這樣的遊戲。
聚焦熱門領域 關乎未來,值得討論
「深度學習,是指使用深度神經網路的統計學習模型。」北京智能一點科技公司CTO莫瑜解釋,「深度學習只是機器學習的一種方法,但它火了之後,大家有時甚至將機器學習和深度學習並列起來。」
也就是說深度學習與機器學習是部分與整體的關係。然而由於深度學習的火熱,使得它在很多人心目中已經成了機器學習的代名詞。
事實上,除了深度學習之外,還有「決策樹、隨機森林、圖模型等各種機器學習的方法」.莫瑜說:「大家言必稱深度學習,使得深度神經網路之外的技術路線被忽視了,這不利於技術的發展。因此會有學者呼籲大家保持冷靜的態度。」
莫瑜認為,楊立昆對深度學習技術的理解、潛力和信心是基於他對這一技術的了解和研究深度。「他是CNNs之父,在神經網路還沒像現在這樣火的時候就開始研究,他的視角可能更深入。」
這個世界總會有幾個能對整個人類社會產生影響的人,他們的思想甚至可以左右人類社會的走向。
楊立昆認為人腦只屬於人,AI要擁有同樣的智能,不需要類似人類的認知能力,可以另起爐灶,深度學習可以承擔構建強人工智慧的任務。
馬庫斯則認為,只有通過類人的方法來理解世界,AI技術才能取得成功,而具備人類相當水平的強人工智慧研究壓根還沒開始。可以推測,他所說的類人研究方法應該包括對人類神經、心理等的生理學破譯等研究工作,馬庫斯正是紐約大學的心理學和神經科學教授。
值得玩味的是,二人目前都從團隊領導崗位退出,2017年3月,馬庫斯宣布從優步公司AI實驗室負責人崗位上離職,楊立昆2018年1月下旬也卸任臉書人工智慧研究院負責人。
「無官一身輕」的二人現在擔任首席科學家或顧問的職務,或許,不為職務所累,更有利於進行關乎未來走向的引領式探索。
深度學習和普通機器學習之間有何區別?
來源:36大數據,作者:黃小凡
本質上,深度學習提供了一套技術和演算法,這些技術和演算法可以幫助我們對深層神經網路結構進行參數化——人工神經網路中有很多隱含層數和參數。深度學習背後的一個關鍵思想是從給定的數據集中提取高層次的特徵。因此,深度學習的目標是克服單調乏味的特徵工程任務的挑戰,並幫助將傳統的神經網路進行參數化。
現在,為了引入深度學習,讓我們來看看一個更具體的例子,這個例子涉及多層感知器(MLP)。
在MLP中,「感知器」這個詞可能有點讓人困惑,因為我們並不想只在我們的網路中使用線性神經元。利用MLP,我們可以學習複雜的函數來解決非線性問題。因此,我們的網路通常由連接輸入和輸出層的一個或多個「隱藏」層組成。這些隱藏的層通常有某種S型的激活函數(logs-s形或雙曲正切等)。例如,在我們的網路中,一個邏輯回歸單元,返回0-1範圍內的連續值。一個簡單的MLP看起來就像這樣:
其中y是最終的類標籤,我們返回的是基於輸入x的預測,「a」是我們激活的神經元,而「w」是權重係數。現在,如果我們向這個MLP添加多個隱藏層,我們也會把網路稱為「深度」。這種「深度」網路的問題在於,為這個網路學習「好」的權重變得越來越難。當我們開始訓練我們的網路時,我們通常會將隨機值賦值為初始權重,這與我們想要找到的「最優」解決方案很不一樣。在訓練過程中,我們使用流行的反向傳播演算法(將其視為反向模式自動微分)來傳播從右到左的「錯誤」,並計算每一個權重的偏導數,從而向成本(或「錯誤」)梯度的相反方向邁進。現在,深度神經網路的問題是所謂的「消失梯度」——我們添加的層越多,就越難「更新」我們的權重,因為信號變得越來越弱。由於我們的網路的權重在開始時可能非常糟糕(隨機初始化),因此幾乎不可能用反向傳播來參數化一個具有「深度」的神經網路。
這就是深度學習發揮作用的地方。粗略地說,我們可以把深度學習看作是一種「聰明」的技巧或演算法,可以幫助我們訓練這種「深度」神經網路結構。有許多不同的神經網路結構,但是為了繼續以MLP為例,讓我來介紹卷積神經網路(CNN)的概念。我們可以把它看作是我們的MLP的「附加組件」,它可以幫助我們檢測到我們的MLP「好」的輸入。
在一般機器學習的應用中,通常有一個重點放在特徵工程部分;演算法學習的模型只能是和輸入數據一樣好。當然,我們的數據集必須要有足夠多的、具有辨別能力的信息,然而,當信息被淹沒在無意義的特徵中,機器學習演算法的性能就會受到嚴重影響。深度學習的目的是從雜亂的數據中自動學習;這是一種演算法,它為我們提供了具有意義的深層神經網路結構,使其能夠更有效地學習。我們可以把深度學習看作是自動學習「特徵工程」的演算法,或者我們也可以簡單地稱它們為「特徵探測器」,它可以幫助我們克服一系列挑戰,並促進神經網路的學習。
讓我們在圖像分類的背景下考慮一個卷積神經網路。在這裡,我們使用所謂的「接收域」(將它們想像成「窗口」),它們會經過我們的圖像。然後,我們將這些「接受域」(例如5×5像素的大小)和下一層的1個單元連接起來,這就是所謂的「特徵圖」。在這個映射之後,我們構建了一個所謂的卷積層。注意,我們的特徵檢測器基本上是相互複製的——它們共享相同的權重。它的想法是,如果一個特徵檢測器在圖像的某個部分很有用,它很可能在其他地方也有用,與此同時,它還允許用不同的方式表示圖像的各個部分。
接下來,我們有一個「池」層,在這個層中,我們將我們的特徵映射中的相鄰特徵減少為單個單元(例如,通過獲取最大特徵,或者對其進行平均化)。我們在很多測試中都這樣做,最終得出了我們的圖像的幾乎不不變的表示形式(確切的說法是「等變數」)。這是非常強大的,因為無論它們位於什麼位置,我們都可以在圖像中檢測到對象。
本質上,CNN這個附加組件在我們的MLP中充當了特徵提取器或過濾器。通過卷積層,我們可以從圖像中提取有用的特徵,通過池層,我們可以使這些特徵在縮放和轉換方面有一定的不同。


TAG:網信科技前沿 |