當前位置:
首頁 > 知識 > 被Geoffrey Hinton拋棄,反向傳播為何飽受質疑?

被Geoffrey Hinton拋棄,反向傳播為何飽受質疑?

機器之心整理

機器之心編輯部

現在的深度學習發展似乎已經陷入了大型化、深度化的怪圈,我們設計的模型容易被對抗樣本欺騙,同時又需要大量的訓練數據——在無監督學習上我們取得的突破還很少。作為反向傳播這一深度學習核心技術的提出者之一,Geoffrey Hinton 很早就意識到反向傳播並不是自然界生物大腦中存在的機制。那麼,在技術上,反向傳播還有哪些值得懷疑的地方?

反向傳播的可疑之處

Geoffrey Hinton 對人工智慧的未來非常擔憂。在最近的一次人工智慧會議上,Hinton 表示自己對於反向傳播「非常懷疑」,並提出「應該拋棄它並重新開始」。

在人工智慧多年的發展過程中,反向傳播已經成為了深度學習不可或缺的一部分。研究人員發現,只要層是可微分的,我們就可以在求解時使用任何計算層。換句話說,層的梯度是可以被計算的。更為清楚地說,在尋物遊戲中,準確表現出被蒙住眼睛的玩家與他的目標之間的距離。

在反向傳播上,存在著幾個問題:第一個是計算出來的梯度是否真的是學習的正確方向。這在直觀上是可疑的。人們總是可以尋找到某些看起來可行的方向,但這並不總是意味著它最終通向問題的解。所以,忽略梯度或許也可以讓我們找到解決方案(當然,我們也不能永遠忽略梯度)。適應性方法和優化方法之間存在著很多不同。

現在,讓我們回顧一下反向傳播思想的起源。歷史上,機器學習起源於曲線擬合的整體思路。在線性回歸的具體情況下(如對一條線進行擬合預測),計算梯度是求解最小二乘問題。在優化領域,除了使用梯度找到最優解之外,還有許多其他方法。不過,事實上,隨機梯度下降可能是最基本的優化方法之一。所以它只是我們能想到的很多方法中最為簡單的一個,雖然也非常好用。

大多數研究優化的學者很長一段時間以來都認為深度學習的高維空間需要非凸解,因此非常難以優化。但是,由於一些難以解釋的原因。深度學習使用隨機梯度下降(SGD)的效果卻非常好。許多研究人員對於為什麼深度學慣用 SGD 優化如此簡單提出了不同解釋,其中最具說服力的說法是這種方法傾向於找到真正的鞍點——而不是小範圍內的谷地。使用這種方法的情況下,總是有足夠的維度讓我們找到最優解。

一張指導圖,防止迷失

DeepMind 研究的合成梯度是一種解耦層方法,以便於我們不總是需要反向傳播,或者梯度計算可推遲。這種方法同樣非常有效。這一發現可能也是一種暗示,正在產生更通用的方法。好像關於這個方向的任何升級都是有益的(隨意提了一下合成梯度),不管效果是不是一樣。

還有一個使用目標函數的典型問題:反向傳播是相對於目標函數計算的。通常,目標函數是預測分布與實際分布之間差異的量度。通常,它是從 Kullback-Liebler 散度衍生出來的,或者是像 Wassertsein 這樣的其他相似性分布數值。但是,在這些相似性計算中,「標籤」是監督訓練必不可少的一部分。在 Hinton 拋出反向傳播言論的同時,他也對於監督學習發表了自己的看法:「我認為這意味著放棄反向傳播……我們確實不需要所有數據都有標籤。」

簡而言之,沒有目標函數就無法進行反向傳播。如果你無法評估預測值和標籤(實際或訓練數據)的 value 值,你就沒有目標函數。因此,為了實現「無監督學習」,你需要拋棄計算梯度的能力。

但是,在我們把這一重要能力丟掉之前,先從更通用的角度看一下目標函數的目的。目標函數是對自動化內部模型預測所處環境的準確率的評估。任何智能自動化的目的都是構建準確率高的內部模型。但是,模型和它一直或持續所處的環境之間不需要任何評估。也就是說,自動化不需要執行反向傳播進行學習。自動化可以通過其他途徑改善其內部模型。

其他途徑就是「想像力」(imagination)或「做夢」(dreaming),不用立刻把預測與事實對比然後更新參數。今天最接近的體現就是生成對抗網路(GAN)。GAN 包括兩個網路:生成器和鑒別器。你可以把鑒別器當作使用目標函數的神經網路,即它可以用現實驗證內部生成器網路。生成器自動化創造近似現實。GAN 網路使用反向傳播,執行無監督學習。因此,無監督學習可能不需要目標函數,但它或許仍然需要反向傳播。

看待無監督學習的另一種方式是,某種程度上,它是一種元學習。系統不需要監督訓練數據的一種可能原因是學習演算法已經開發出自己的最佳內部模型。也就是說,仍然存在一定程度的監督,只不過在學習演算法中更加隱晦。學習演算法如何具備這種能力尚不可知。

總之,現在判斷我們是否可以拋棄反向傳播還為時尚早。我們當然可以使用沒有那麼嚴格的反向傳播(即合成梯度或其他啟發)。但是,逐步學習(或稱爬山法)仍然是必要的。我當然對找到駁斥逐步學習或爬山法的研究很感興趣。這實際上可以類比為宇宙的運行,具體來說就是熱力學的第二定律。再具體點就是熵一直在提高。信息引擎將降低熵,以交換所處環境中的熵提高。因此,沒有一種方法可以完全避免梯度,除非存在「永動信息機器」(perpetual motion information machine)。

Hinton 與他的谷歌同事 Sara Sabour 和 Nicholas Frosst 共同完成的論文《Dynamic Routing Between Capsules》已被 NIPS 2017 大會接收,他們在研究中提出的 capsule 概念正是 Hinton 對於未來人工智慧形態的探索。不可否認的是,在無監督學習的道路上,我們還有很長的一段路要走。

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 機器之心 的精彩文章:

田淵棟等人提出卷積濾波器學習新方法:可用於非高斯輸入分布
用智能機器人當導購……傳統企業蘇寧的AI布局在於支持自己的6大產業

TAG:機器之心 |