當前位置:
首頁 > 新聞 > 周志華組最新論文提出「溯因學習」,受瑪雅文字啟發的神經邏輯機

周志華組最新論文提出「溯因學習」,受瑪雅文字啟發的神經邏輯機

周志華組最新論文提出「溯因學習」,受瑪雅文字啟發的神經邏輯機

【新智元導讀】南京大學周志華教授等人在最新的一篇論文中提出了「溯因學習」(abductive learning)的概念,將神經網路的感知能力和符號AI的推理能力結合在一起,能夠同時處理亞符號數據(如原始像素)和符號知識。實驗中,基於溯因學習框架的神經邏輯機NLM,在沒有圖像標籤的情況下,學會了分類模型,能力遠超當前最先進的神經網路模型。作者表示,就他們所知,溯因學習是首個專門為了同時進行推理和感知而設計的框架,為探索接近人類水平學習能力的AI打開了新的方向。

周志華組最新論文提出「溯因學習」,受瑪雅文字啟發的神經邏輯機

假設你在踢足球,球來了,你把球傳給隊友,「傳球」這一個動作,實際上涉及兩種不同的思維過程。

首先,你需要意識到腳下有個球,相當於識別(感知);其次,你需要判斷把球傳給哪個隊友,這是推理的結果——傳給A不傳給B,是因為A沒有人防守,而B被兩個人盯著。

在人類的大腦中,感知和推理這兩種思維過程無縫銜接,甚至可以同時完成。但是,如今的AI系統還無法做到。在當前的機器學習系統中,感知和推理往往是不兼容的。

為了解決這個問題,南京大學的戴望州、徐秋靈、俞揚和周志華,在他們的論文《使用溯因學習打通神經感知和邏輯推理》(Tunneling Neural Perception and Logic Reasoning through Abductive Learning)中,提出了溯因學習(abductive learning)的概念。

溯因學習(abductive learning)能像人一樣歸納推理,結合了神經網路的感知能力和符號AI的推理能力。基於溯因學習提出的神經邏輯機NLM(Neural-Logical Machine),能夠同時處理亞符號數據(如原始像素)和符號知識。實驗中,NLM僅從原始像素中學會了符號間的邏輯關係,能力遠超當前最先進的神經網路模型,也即雙向LSTM和DeepMind的可微分神經計算機(DNC)。

作者表示,就他們所知,溯因學習是首個專門為了同時進行推理和感知而設計的框架,為探索接近人類水平學習能力的AI打開了新的方向。

而這項研究的靈感,則來自於考古學家破譯瑪雅文字的過程。

研究靈感源自考古學家破譯瑪雅文字:視覺感知+數學推理如何相互影響?

瑪雅文字對於現代人類而言完全是一個謎,直到在19世紀末瑪雅文字的數字系統和日曆被成功破譯。正如歷史學家所描述的那樣,對瑪雅數字的識別來源於一些顯示出數學規律的圖像。由於瑪雅的數字系統是二十進位的,與目前普遍使用的十進位系統完全不同,所以破譯這個系統非常艱難。瑪雅數字的成功解讀反映了兩種顯著的人類能力:1)視覺上感知圖像上單個的字;2)在感知過程中基於數學背景知識進行推理。這兩種能力同時作用,相互影響。此外,這兩種能力常常被人類潛意識地聯繫在一起,這是許多現實世界中學習問題的關鍵。

現代人工智慧(AI)系統具有這兩種能力,但它們是孤立的。深度神經網路在識別人臉、物體、語音方面取得了驚人的性能;基於邏輯的AI系統在證明數學定理,以及關係推理方面已經達到了人類的水平。然而,識別系統很難在符號形式中利用複雜的領域知識,感知信息很難納入推理系統,而推理系統通常需要語義層面的知識,這涉及到人類的輸入或監督。

即使最新的神經網路模型中,具有增強記憶能力、關注關係的能力和可微分知識表示,但是完全邏輯推理能力仍然是缺失的。為了把感知和推理結合起來,關鍵是要回答這樣一個問題:在一個系統中,感知和推理應該如何相互影響?

破譯瑪雅象形文字的例子

周志華組最新論文提出「溯因學習」,受瑪雅文字啟發的神經邏輯機

圖1:破譯瑪雅象形文字的圖解

為了尋找答案,讓我們回到查爾斯 ? 鮑迪奇(Charles P. Bowditch)破譯瑪雅數字的過程,這些瑪雅數字被刻成神的頭。圖1說明了這個過程。圖1(A)展示了在帕倫克發現的三片牌碑的部分。第一片(I—II列)使用標準象形文字表示瑪雅的時間單位,例如,在II5處的「Tun」(表示「360天」)以及所有三個碑文上的第二行都有這個符號。第四和第六列以完全不同的方式繪製了這些符號,但是鮑迪奇推測,根據它們的位置,它們與第二列意思是一樣的。此外,雖然瑪雅數字系統是二十進位的,但「Tun」單位只是其前一個單位「Winal」(所有偶數列的第6行)的18倍,這使解密更加困難。

鮑迪奇通過計算和評估這些碑文之間關係的一致性來驗證這一點。然後,他開始解讀第III列的數字。如圖1(B)所示,通過將象形符號映射到不同的數字,然後根據數學規則檢查這些數字是否一致, 鮑迪奇最終對這些數字進行了解碼並證明了它們的正確性。

這個解決問題的過程被查爾斯·皮爾斯(Charles S. Peirce)稱為「溯因」(abduction),司馬賀(Herbert A. Simon)稱其為「Retroproduction」。它指的是根據背景知識有選擇地推斷某些事實和假設以解釋現象和觀察的過程。在鮑迪奇破譯瑪雅數字這一過程中,背景知識包括算術、關於瑪雅曆法的一些基本事實;假設包括一個將象形符號映射為有意義的符號的識別模型,以及對瑪雅曆法系統的更全面的理解。最後,通過反覆試驗和一致性檢查來確保假設的有效性。

溯因學習(Abductive Learning):首個為了同時進行推理和感知而設計的框架

受到人類的溯因問題解決過程的啟發,作者提出了「Abductive Learning」框架,該框架使機器學習中感知能力和推理能力的結合得以實現。

一般來說,機器學習是一個在大的假設空間中搜索一個最優模型的過程。約束條件被用來縮小搜索空間。大多數機器學習演算法利用數學公式顯式表達的約束。但是,就像解碼瑪雅語言時要使用其他領域的知識一樣,現實世界的任務中,許多複雜的約束都是以符號規則的形式表示的。而且,這種象徵性的知識可能是不完整的,甚至是不準確的。Abductive Learning使用邏輯溯因來處理不完美的符號推理問題。如果把領域知識寫成一階的邏輯規則,那麼Abductive Learning就可以外展(abduce)多種假設來作為觀察到的事實的可能解釋,正如鮑迪奇在「嘗試」這個步驟中,基於他對算術和瑪雅語言的知識來對這些未知的象形文字進行猜測。

傳統的基於邏輯的AI為了利用一階邏輯規則寫成的領域知識,根據輸入的邏輯基礎,使用規則進行邏輯推理,所推理的是領域內對象之間關係的邏輯事實。事實上,這隱含地假設了對象和關係的絕對存在。然而,正如斯圖爾特·羅素(Stuart Russell)評論的那樣,「現實中的物體很少會帶有獨特的標識符,也不會像演齣劇本那樣預先宣布它們的存在」。因此,溯因學習利用神經感知自動從數據中提取符號;然後,邏輯溯因被應用於神經感知的一般化結果。

溯因學習的關鍵是要發現邏輯溯因(logical abduction)和神經感知(neural perception)可以怎樣同時訓練。當一個可微的神經感知模塊被耦合到一個非可微的邏輯溯因模塊時,學習系統的優化就變得非常困難:因為傳統的基於梯度的方法不適用了。與鮑迪奇解碼瑪雅文字類似,溯因學習使用啟發式試錯搜索方法(heuristic trial-and-error search approach)來結合這兩個功能。

邏輯溯因作為一個離散的推理系統,可以很容易地處理一組符號輸入。感知模塊的神經層應當輸出使符號假設彼此一致的符號。當假設不一致時,邏輯溯因模塊從神經感知模塊中發現不正確的輸出,並對其進行糾正。這個過程就是鮑迪奇在圖1(B)中所遵循的試錯過程。校正函數作為監督信號來訓練神經感知模塊。

為了驗證溯因學習的有效性,作者實現了一個神經邏輯機( Neural Logical Machine ,NLM)來演示這個溯因學習框架。圖2展示了一個用於分類手寫等式的NLM的架構。分類手寫等式就是讓機器從一組標記好的等式中學習,訓練好的模型可以正確地預測未來的等式。這個任務與破譯瑪雅象形文字十分類似:機器沒有提前知道象形文字或計算規則的含義,並且需要同時使用感知和推理。

周志華組最新論文提出「溯因學習」,受瑪雅文字啟發的神經邏輯機

圖2:神經邏輯機(NLM)的架構。(A)感知神經層(例如卷積層)完成感知任務。(B)感知層的結果用作邏輯層的輸入,由神經邏輯通道,Prolog模塊和關係特徵組成。Prolog模塊用於檢查輸入一致性並生成關係特徵; 神經邏輯通道根據與假設的一致性來校正感知輸出;關係特徵揭示了邏輯過程的結果。(C)決策神經層將關係特徵轉換成最終輸出。

啟發式試錯法搜索(heuristic trial-and-error search)是在神經邏輯通道中使用無梯度優化( derivative-free optimization)實現的。儘管邏輯層可以發現邏輯規則和感知符號之間的不一致性,但是它不能找到錯誤符號的位置。

NLM採用無梯度的優化方法來猜測符號出現錯誤的位置。對每一個猜測,Prolog模塊運行溯因邏輯程序(abductive logical programming,ALP),以確定正確的符號出現在指定的位置,使邏輯假設更加一致。我們通過在每次訓練迭代期間僅提供可用訓練數據的樣本來進一步加速NLM。從數據集樣本中,只能得到局部一致的假設。最後,NLM使用命題式技術(propositionalization technique)將局部一致的假設轉化為關係特徵。

作為一個人類解決問題過程的類比,NLM的工作方式如下:在訓練之前,將提供給第一級邏輯程序的領域知識提供給Prolog模塊。訓練開始後,訓練數據樣本將被解釋為在神經邏輯通道中預定義的候選原語符號。由於感知神經層最初是一個隨機網路,解釋的符號通常是錯誤的,形成不一致的假設。邏輯層開始修改解釋的符號並在訓練數據樣本中搜索最一致的邏輯假設。假設作為關係特徵存儲在邏輯層中,而符號修正用於以直觀的監督方式訓練感知神經層。

當這兩個子部分的訓練完成時(例如感知層收斂或達到迭代限制),NLM再次處理所有訓練樣本以獲得溯因的關係特徵的特徵向量。最後,決策神經層用這些來自整個數據集的特徵向量進行訓練。決策神經層的學習過程將自動過濾不良感知神經層、假設和關係特徵。此外,由於象徵溯因的高度複雜性,我們採用課程學習(curriculum learning)的範式來訓練NLM(即從更簡單的例子開始學習,學習任務的難度逐漸增加。)

神經邏輯機:性能遠超雙向LSTM和DeepMind的可微分神經計算機

為了驗證神經邏輯機NLM的性能,作者進行了手寫等式識別(Handwritten Equations Decipherment)和任務遷移(Cross-task Transfer)兩項實驗。

在手寫等式識別任務中,輸入是圖像,包括手寫的數字「0」、「1」,符號「+」、「=」,以及外觀類似的符號「≈」、「∝」,系統需要從樣例像素中學習符號之間的邏輯關係,然後判斷測試集中的等式是否成立

周志華組最新論文提出「溯因學習」,受瑪雅文字啟發的神經邏輯機

圖3:A和B是樣例,系統需要從A和B中學習符號之間的關係,其中,A是手寫數字及符號;B是訓練集,有標籤,表明成立(P)或不成立(N)。C是測試集,測試集並沒有標籤。

作者將NLM的性能與當前最先進的雙向LSTM(BiLSTM)和可微分神經計算機DNC相比較,因為後兩者都能夠解決序列輸入問題,而且是當前的最高基準。尤其是DNC,由於外接存儲器,在符號計算方面展示了很強的潛力。

結果發現,NLM性能要顯著優於兩者,並且使用了更少的訓練樣本。不僅如此,當測試集的公式變長時,BiLSTM和DNC性能快速下降,而NLM卻成功維持了超過80%的正確率。作者表示,這體現了一種接近人類水平的學習能力。

周志華組最新論文提出「溯因學習」,受瑪雅文字啟發的神經邏輯機

圖4:圖A是NLM與其他方法在手寫公式識別上的結果。紅色代表NLM,隨著公式長度增加(從5個字元到25個),NLM的準確性一直保持在80%以上,但是,DNC(藍色)和BiLSTM(灰色)下降明顯。

作者還檢測了在NLM內部,隨著學習的增加,感知精度有所提高(上圖B)。這一結果表明,邏輯上的一致性可以充當監督信號。

此外,感知能力(圖像識別性能)能夠促進NLM在分類公式時的準確性(上圖C)。

任務遷移(Cross-task Transfer)實驗則驗證了NLM在知識遷移上的性能。詳情參見論文。

結語

受Bowditch解密瑪雅文字的反覆試錯試驗啟發,溯因學習將符號推理與表示感知連接起來,得益於一階邏輯的表達力,還能直接利用通用的領域知識。

作者表示,他們還將繼續改進和完善溯因學習框架,讓AI系統自己學習背景知識,並且讓學到的知識能在其他任務中重用,更進一步接近人類水平的學習能力。

論文地址:https://arxiv.org/pdf/1802.01173.pdf

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 新智元 的精彩文章:

LeCun 卸任!Facebook人工智慧實驗室換帥
《人工智慧標準化白皮書》圖文解讀,技術、應用和產業演進

TAG:新智元 |