Coursera吳恩達《卷積神經網路》課程筆記(2)-深度卷積模型:案例研究
《Convolutional Neural Networks》是Andrw Ng深度學習專項課程中的第四門課。這門課主要介紹卷積神經網路(CNN)的基本概念、模型和具體應用。該門課共有4周課時,所以我將分成4次筆記來總結,這是第2節筆記。
1
Why look at case studies
本周課程將主要介紹幾個典型的CNN案例。通過對具體CNN模型及案例的研究,來幫助我們理解知識並訓練實際的模型。
典型的CNN模型包括:
LeNet-5
AlexNet
VGG
除了這些性能良好的CNN模型之外,我們還會介紹Residual Network(ResNet)。其特點是可以構建很深很深的神經網路(目前最深的好像有152層)。
另外,還會介紹Inception Neural Network。接下來,我們將一一講解。
2
Classic Networks
LeNet-5模型是Yann LeCun教授於1998年提出來的,它是第一個成功應用於數字識別問題的卷積神經網路。在MNIST數據中,它的準確率達到大約99.2%。
典型的LeNet-5結構包含CONV layer,POOL layer和FC layer,順序一般是CONV layer->POOL layer->CONV layer->POOL layer->FC layer->FC layer->OUTPUT layer,即 y^。下圖所示的是一個數字識別的LeNet-5的模型結構:
該LeNet模型總共包含了大約6萬個參數。值得一提的是,當時Yann LeCun提出的LeNet-5模型池化層使用的是average pool,而且各層激活函數一般是Sigmoid和tanh。現在,我們可以根據需要,做出改進,使用max pool和激活函數ReLU。
AlexNet模型是由Alex Krizhevsky、Ilya Sutskever和Geoffrey Hinton共同提出的,其結構如下所示:
VGG-16模型更加複雜一些,一般情況下,其CONV layer和POOL layer設置如下:
CONV = 3x3 filters, s = 1, same
MAX-POOL = 2x2, s = 2
VGG-16結構如下所示:
VGG-16的參數多達1億3千萬。
轉自:機器學習演算法與自然語言處理


TAG:機器學習研究會 |