當前位置:
首頁 > 新聞 > 消失的梯度問題:問題,原因,意義及其解決對策

消失的梯度問題:問題,原因,意義及其解決對策

消失的梯度問題:問題,原因,意義及其解決對策


本文為 AI 研習社編譯的技術博客,原標題 :

The Vanishing Gradient Problem

作者 | Chi-Feng Wang

翻譯 | Dddda 編輯 | 王立魚

原文鏈接:

https://towardsdatascience.com/solving-nlp-task-using-sequence2sequence-model-from-zero-to-hero-c193c1bd03d1

消失的梯度問題:問題,原因,意義及其解決對策

問題

隨著越來越多的激活函數加到神經網路中,損失函數的梯度趨近於0,使得網路結構很難訓練。

原因

具體的激活函數,比如sigmoid函數,把很大的空間壓縮到0和1之間。因此,sigmoid函數的輸入即使變化很大也只會改變一點輸出。因此,求導就變得很小。

消失的梯度問題:問題,原因,意義及其解決對策

圖1:sigmoid函數以及導數

例如,圖一是sigmoid函數及其導數。注意當sigmoid函數的輸入變大或變小時(當|x|),導數如何接近零。

為什麼這是重要的?

對於使用激活函數的僅有幾層的淺層網路結構,這不是很大的問題。然而,當使用更多層的時候,可能會造成梯度太小而不能很好的訓練。

神經網路的梯度是使用反向傳播來找到的。簡單來說,反向傳播通過將網路從最終層逐層移動到初始層來找到網路的導數。 通過鏈式的規則,將各層的導數乘上網路(從最終層到初始層),計算出初始層的導數。

然而,當有n個隱藏層使用像sigmoid的激活函數時,n個小的倒數相乘。因此,當我們反向傳到初始層的時候,梯度會大幅度下降。

一個小的梯度意味著初始層的權重和偏差不會在訓練中得到有效更新。由於這些初始層通常對識別輸入數據的核心元素至關重要,因此可能導致整個網路的整體不準確。

解決方案

最簡單的解決方案是使用激活函數,像ReLU,不會導致一個小的導數。

殘差網路是另外一個解決方案,因為提供了殘差與之前的層直接連接。就像圖2中,殘差連接直接將block的開頭x的值添加到block(F(x)+x)的結尾。雷鋒網雷鋒網雷鋒網

這個殘差連接不通過「擠壓」的激活函數,從而導致block的整體倒數更大。

消失的梯度問題:問題,原因,意義及其解決對策

圖2:殘差層

*************************************************************************

譯者個人註解:精髓就在於直接連過來的那個x了。h(x)=f(x)+ x,h(x)對 x 求偏導,值為1,這個1直接傳到block的最前端,保證了來自後一層的梯度值完好的傳過了這一層然後進入到前一層,使得淺層的weights也可以得到很好的訓練。

*************************************************************************

最後,batch normalization層還可以解決這個問題。如前所述,當一個大的輸入空間映射到一個小的輸入空間時,問題就出現了,導致導數消失。 在圖1中,很清晰看到|x|變大的時候。bath normalization通過簡單地規範化輸入來減少這個問題,這樣x就不會到達sigmoid函數的外邊緣。如圖3所示,它對輸入進行了規範化,使其大部分落在綠色區域,其中導數不太小。

消失的梯度問題:問題,原因,意義及其解決對策

圖三: 限制輸入的sigmoid 函數

如果你有任何的問題或者建議,記得評論 :)

閱讀以下的文章來獲得更多的信息:

  • https://www.quora.com/What-is-the-vanishing-gradient-problem

  • https://en.wikipedia.org/wiki/Vanishing_gradient_problem

  • https://towardsdatascience.com/intuit-and-implement-batch-normalization-c05480333c5b

想要繼續查看該篇文章相關鏈接和參考文獻?

點擊消失的梯度問題:問題、原因、意義及其解決對策】即可訪問:

今日資源推薦:數據科學家修鍊之道

這是一本跟數據科學和數據科學家有關的「手冊」,它還包含傳統統計學、編程或計算機科學教科書中所沒有的信息。《數據天才:數據科學家修鍊之道》有3個組成部分:一是多層次地討論數據科學是什麼,以及數據科學涉及哪些其他學科;二是數據科學的技術應用層面,包括教程和案例研究;三是給正在從業和有抱負的數據科學家介紹一些職業資源。

點擊鏈接即可獲取:https://ai.yanxishe.com/page/resourceDetail/614

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 雷鋒網 的精彩文章:

Redmi K20 Pro K.O. 了誰?
華為雲再談尊重數權,意欲普惠AI

TAG:雷鋒網 |