當前位置:
首頁 > 科技 > Keras還是TensorFlow?深度學習框架選型實操分享

Keras還是TensorFlow?深度學習框架選型實操分享

譯者| 王天宇、林椿眄

責編| Jane、琥珀

出品| AI科技大本營

深度學習發展勢頭迅猛,但近兩年湧現的諸多深度學習框架讓初學者無所適從。如 Google 的 TensorFlow、亞馬遜的 MXNet、Facebook 支持的 PyTorch、Theano、Caffe、CNTK、Chainer、百度的 PaddlePaddle、DSSTNE、DyNet、BigDL、Neon 等等。

在這其中,TensorFlow 作為最為著名的用於深度學習生產環境的框架,它有一個非常強大的生態體系支持,然而,相比其他框架,TensorFlow 也有其劣勢,如速度較慢、使用上手難。而基於 TensorFlow 基礎上構建的 Keras 提供了簡單易用的 API 介面,非常適合初學者使用。

2017 年 1 月,隨著 Keras 的作者、谷歌 AI 研究員 Francois Chollet 的一條消息的宣布,Keras 成為第一個被添加到 TensorFlow 核心的高級別框架,Keras 從此成為 Tensorflow 的默認 API。

「那麼,我應該在項目中使用 Keras 還是 TensorFlow?Keras 和 TensorFlow 究竟哪個會更好?我應該把時間花在研究 TensorFlow 還是 Keras 上?」

在與深度學習的研究人員、從業者包括工程師在內的交談中,「Deep Learning for Computer Vision with Python 」一書作者 Adrian Rosebrock 聽到了他們的困惑。

就 Keras 和 TensorFlow 而言,Rosebrock 認為開發者更應該關注的是當 Keras 實際上已被完全採用並整合到 TensorFlow 後,自己可以:

使用 Keras 易於使用的界面定義模型。

如果需要 TensorFlow 的特定功能,或需要實現 Keras 不支持但 TensorFlow 支持的自定義功能,則調入 TensorFlow。

他給出的建議是先使用 Keras ,然後下載 TensorFlow 以獲取可能需要的任何特定功能。文本中,Rosebrock展示了如何訓練使用 Keras 的神經網路和使用直接構建在 TensorFlow 庫中的 Keras+TensorFlow 集成(具有自定義功能)的模型。

下面開始正文:

▌對比 Keras 和 TensorFlow 沒什麼意義

前些年,深度學習領域的研究人員、開發人員和工程師必須經常做出一些選擇:

我應該選擇易於使用但自定義困難的 Keras 庫?

還是應該使用難度更大的 TensorFlow API,編寫大量代碼?(更不用說一個不那麼容易使用的 API 了。)

如果你陷於「我應該使用 Keras 還是 TensorFlow」這樣的問題,你可以退一步再看,其實這是一個錯誤的問題,因為你可以選擇同時使用兩個。

我會使用基於 TensorFlow 的標準 keras 模塊和 tf.keras 模塊,來實現一個卷積神經網路(CNN)。然後,基於一個示例數據集,來訓練這些 CNN,然後檢查所得結果,你會發現,Keras 和 TensorFlow 是可以和諧共處的。

雖然自一年多之前,TensorFlow 就宣稱 Keras 將被併入 TensorFlow 的官方發布版本中,但令我詫異的是,仍有很多深度學習開發者沒有意識到,他們可以通過 tf.keras 子模塊來調用 Keras。更重要的是,Keras 與 TensorFlow 是無縫銜接的,使得我們將 TensorFlow 的源代碼直接寫入 Keras 模型中。

在 TensorFlow 中結合 Keras 使用,會有雙贏效果:

你可以使用 Keras 提供的簡單、原生 API 來創建自己的模型。

Keras 的 API 類似於 scikit-learn 的,都可稱為機器學習的優質 API。

Keras 的 API 是模塊化的、基於 Python ,並且極其易於使用。

當你需要實現一個自定義的層或更複雜的損失函數時,你可以深入使用 TensorFlow,將代碼自動地與 Keras 模型相結合。

▌Keras 通過 tf.keras 模塊構建到 TensorFlow 中

可以看到,我們通過引入 TensorFlow (tf) 並調用 tf.keras,在 Python shell 中展示了 Keras 實際上是 TensorFlow 的一部分。

tf.keras 中的 Keras 允許我們使用標準的 Keras 包獲取下面這樣簡單的前饋神經網路:

接下來基於 TensorFlow 的一部分 —— tf.keras 子模塊,來實現同樣的網路:

然而這是否意味著你必須使用 tf.keras?從而現在放棄使用標準 Keras 包了嗎?當然不是!

Keras 依然作為一個庫,與 TensorFlow 分開,進行獨立操作,所以仍存在未來兩者會分開的可能性;然而,我們知道 Google 官方同時支持 Keras 和 TensorFlow,分開似乎又是極不可能發生的。

但重點在於:

如果你更喜歡只基於 Keras 來編程,那就這麼做吧,以後可以一直如此。但如果你是 TensorFlow 用戶,你應該開始考慮 Keras API 了,因為:

它是基於 TensorFlow 創建的

它更易於使用

當你需要用純 TensorFlow 實現特定性能或功能時,它可以直接用於你的 Keras。

▌示例數據集

CIFAR-10 數據集有10個類,我們用該數據集來展示本文的觀點

為了簡單起見,我們就在 CIFAR-10 數據集上訓練兩個單獨的卷積神經網路 (CNN),方案如下:

方法 1 :以 TensorFlow 作為後端的 Keras 模型

方法 2 :使用tf.keras中 Keras 子模塊

在介紹的過程中我還會展示如何把自定義的 TensorFlow 代碼寫入你的 Keras 模型中。

CIFAR-10 數據集包括10個單獨的類,50,000 張訓練圖片和 10,000 張測試圖片。

▌項目結構

我們可以在終端使用 tree 指令來查看該項目的結構:

pyimagesearch模塊被包括在與網路條目相關的下載中。它不能通過 pip 來安裝,但包含在 "Downloads"後的結果中。我們先回顧一下該模塊中兩個重要的 Python 文件:

minivggnetkeras.py:此文件是基於 Keras 實現的 MiniVGGNet 網路,一個基於 VGGNet 的深度學習模型。

minivggnettf.py:此文件是基於 TensorFlow + Keras (如 tf.keras)實現的 MiniVGGNet 網路。

該項目的根目錄包含兩個 Python 文件:

train_network_keras.py:用 Keras 實現的訓練腳本;

train_network_tf.py: TensorFlow + Keras 實現需要的訓練腳本,與前者基本相同;但我們仍會進行說明,並標出不同之處。

每個腳本都會生成各自訓練的 accuracy 和 loss 曲線:

plot_keras.png

plot_tf.png

接下來就會向大家介紹基於 Keras 和 TensorFlow + Keras (tf.keras) 實現的 MiniVGGNet 網路和他們的訓練過程。

▌用 Keras 訓練一個神經網路

用 Keras 實現的一個 miniVGGNet 卷積神經網路結構

訓練我們網路的第一步是在 Keras 中構建網路的架構。

如果你已經熟悉 Keras 訓練神經網路的基礎知識,那麼我們就開始吧 (如果你對此並不了解的話,請參考相關的介紹性文章)。

相關鏈接:https://www.pyimagesearch.com/2018/09/10/keras-tutorial-how-to-get-started-with-keras-deep-learning-and-python/

首先,打開 minivggnetkeras.py 文件並插入以下代碼:

從導入一系列所需的 Keras 庫開始構建模型。

然後,定義一個的MiniVGGNetKeras類:

我們在第 12 行定義了build方法,並定義inputShape和input參數。 我們假定以 channel last 的規則排序,所以inputShape參數中最後一個值應該對應的是depth值。

下面開始定義卷積神經網路的主體結構:

從上面這段代碼你可以觀察到我們在每次應用池化 (pooling) 之前都堆疊了一系列卷積 (conv2D),ReLU 激活函數和批規範化層 (batch normalization),以降低卷積操作後的空間維度。此外,我們還使用 Dropout 技術來防止模型的過擬合現象。

對於圖層類型和有關術語的知識,可以參考以前的 Keras 教程

https://www.pyimagesearch.com/2018/09/10/keras-tutorial-how-to-get-started-with-keras-deep-learning-and-python/

如果想深入研究的話,推薦書「Deep Learning for Computer Vision with Python 」

https://www.pyimagesearch.com/deep-learning-computer-vision-python-book/

然後,將全連接層 (FC) 添加到網路結構中,代碼如下:

我們將 FC 層和 Softmax 分類器添加到網路中。隨後我們定義神經網路模型並將其返回給回調函數 (calling function)。

現在我們已經在 Keras 中實現了 CNN 模型的定義。下面,我們創建用於訓練該模型的程序腳本。

打開train_network_keras.py文件並插入以下代碼:

我們首先在代碼的第 2-13 行導入我們模型訓練所需的包。

需要注意的是:

在第 3 行,將 Matplotlib 的後端設置為 Agg,以便我們可以能將訓練圖保存為圖像文件。

在第 6 行,我們導入MiniVGGNetKeras類。

我們使用 scikit-learn 庫中的LabelBinarizer方法進行獨熱編碼 (one-hot encoding),並使用其classification_report方法列印出分類精度統計結果 (分別對應第 7 行和第 8 行)。

我們在第 10 行導入訓練所需的資料庫。

如何使用自定義的數據集,可參考

https://www.pyimagesearch.com/2018/09/10/keras-tutorial-how-to-get-started-with-keras-deep-learning-and-python/

https://www.pyimagesearch.com/2018/04/16/keras-and-convolutional-neural-networks-cnns/

此外,我們還在第 16-19 行解析了一個命令行參數 (輸出 --plot path)。

下面我們就載入 CIFAR-10 數據集,並對標籤進行編碼操作,代碼如下:

在第 24 行和第 25 行中,我們分別載入並提取訓練和測試所需的數據,同時在第 26 和 27 行將數據進行 floating point + scale 轉化。

第 30-36 行我們對標籤進行編碼並初始化真實的labelNames。

模型定義和數據集導入的工作都已經完成。現在可以開始訓練我們的模型,代碼如下:

在第 40-46 行,我們設置訓練過程所需的一些參數和模型優化方法。

然後在第 47-50 行,我們使用MiniVGGNetKeras.build方法初始化我們的模型並進行編譯。

最後,在第 54 和 55 行啟動模型的訓練程序。

下面,我們將對網路模型進行評估並生成一個結果圖:

在這裡,我們利用測試數據來評估我們的模型,並生成 classification_report。最後,我們將評估結果集成並導出結果圖。

需要注意的是,通常在這裡我們會將模型序列化並導出我們的模型,以便可以在圖像或視頻處理腳本中使用它,但在這篇教程中我們不介紹這部分的內容。

如果你想要運行以上的腳本,請確認下載本文的源代碼。

然後,打開一個終端並執行以下命令就可以用 Keras 實現一個神經網路:

在我的電腦 cpu 上運行每個訓練 epoch 只需要 5 多分鐘。訓練結果圖如下:

用 Keras 實現的神經網路模型,以 Matplotlib 畫出訓練過程的 accuracy/loss 曲線

正如我們從上面終端的輸出看到那樣,我們的模型取得75%的準確度。雖然這不是最先進的模型,但它能比隨機猜測 (1/10) 要好得多。

相比起小型的神經網路,我們模型的結果實際上是非常好的!

此外,正如我們在輸出圖6中所示,我們模型並不會發生過擬合現象。

▌用 Tensorflow 和 tf.keras 訓練一個神經網路模型

使用 tf.keras (內置於 TensorFlow 中的模塊) 構建的 MiniVGGNet CNN 架構與我們直接使用 Keras 構建的模型是相同的。在此,出於演示的目的,我改變了其中的激活函數,其他的結構都是相同的。

上面我們已經能夠使用 Keras 庫實現並訓練了一個簡單的 CNN 模型。接下來,我們要做的是:

1.學習如何使用 TensorFlow 中的 tf.keras 模塊實現相同的網路架構

2.在我們的 Keras 模型中包含一個 TensorFlow 激活函數,而該函數未在Keras中實現。

下面,讓我們開始吧。

首先,打開minivggnettf.py文件,我們將實現 TensorFlow 版的 MiniVGGNet 模型,代碼如下:

在這個 .py 文件中,請注意第 2 行我們需要導入所需的 tensorflow 依賴庫,而 tensorflow 中自帶 tf.keras 子模塊,該子模塊包含我們可以直接調用的所有 Keras 功能。

在模型定義中,我使用 Lambda 層,如代碼中的黃色突出顯示,它可以用於插入自定義激活函數 CRELU (Concatenated ReLUs),

激活函數 CRELU 是由 Shang 等人在論文「Understanding and Improving Convolutional Neural Network」中所提出。

CRELU 激活函數在 Keras 中沒有相應的實現,但是在 TensorFlow 中可以。你可以在 TensorFlow 中的 tf.keras 模塊,使用一行代碼來將 CRELU 函數添加到我們的 Keras 模型中。

還需要注意的是:CRELU 函數有兩個輸出,一個 positive ReLU 和一個 negative ReLU,二者連接在一起。對於正值 x,CRELU 函數的返回值是 [x,0];而對於負值 x,CRELU 函數的返回值是 [0,x]。有關該函數的詳細介紹可以參考 Shang 等人的論文。

接下來,我們將用 TensorFlow + Keras 來定義用於訓練MiniVGGNetTF模型的程序。打開 train_network_tf.py 並插入如下代碼:

在 2-12 行,我們導入訓練過程所需的依賴庫。與我們之前的 Keras 版的訓練腳本相比,唯一的變化在於我們導入了 MiniVGGNetTF 類及 tensorflow as tf 而不是使用 Keras。而在第 15-18 行是我們的命令行參數解析部分。

和之前一樣,我們在第 23 行載入模型訓練所需的數據。腳本剩餘的部分和之前 Keras 版的訓練過程是一樣的,即提取並分離訓練和測試集數據並編碼我們的標籤。

下面,讓我們開始訓練我們的模型,代碼如下:

在第 39-54 行,是與 Keras 版訓練過程不同的地方,我們用黃色突出顯示,其餘部分都是相同的。

在第 58-73 行,我們用測試數據評估我們的模型並繪製最終的結果。

正如你所看到的,我們只是更換了所使用的方法 (使用 tf.keras),實現了幾乎一樣的訓練流程。

然後,打開一個終端並執行以下命令就可以使用 tensorflow + tf.keras 訓練一個神經網路模型:

訓練完成後,你可以得到如上類似的訓練結果圖:

用 Tensorflow + tf.keras 實現的神經網路模型,以 Matplotlib 畫出訓練過程的 accuracy/loss 曲線

可以看到,我們用 CRELU 代替原有的 RELU 激活函數,獲得 76% 的準確率; 然而,1% 的準確性提升增加可能是由於網路中權重的隨機初始化導致的,這還需進行交叉驗證實驗來進一步證明 CRELU 激活函數是否確實能夠提升模型的準確性。當然,原始精度並不是本節所重點關注的內容。

相反,更需要我們注意的是,如何在 Keras 模型內部,用 TensorFlow 的激活函數替換標準 Keras 激活函數!

此外,你也可以使用自定義的激活函數、損失/成本函數或圖層來執行以上相同的操作。

總結

在今天的文章中,關於 Keras 和 TensorFlow 我們主要討論了以下幾個問題:

我是否應該在我的項目中使用 Keras 或 TensorFlow?

TensorFlow 比 Keras 要好嗎?

我是否要花時間學習 TensorFlow 或者 Keras?

最終,我們發現,試圖在 Keras 和 TensorFlow 之間作出抉擇變成一個越來越無關緊要的問題。Keras 庫已經通過 tf.keras 模塊直接集成到 TensorFlow 中了。

本質上來說,你可以通過易於使用的 Keras API 來編碼模型和訓練過程,然後用純 TensorFlow 進行自定義實現。

所以,如果你正準備開始學習深度學習,或在糾結下一個項目是「用 Keras 還是 TensorFlow ?」或就是在思考他們兩者間「誰更好?」這些問題,現在正是尋找答案和動力的時候了,而我給你的建議非常簡單:

不多說,先開始!

在你的 Python 項目中輸入 import keras 或者 import tensorflow as tf (這樣你就可以訪問 tf.keras 了)然後開始後續的工作。

TensorFlow 可以直接集成到你的模型和訓練過程中,所以不用去比較特性,功能或易用性,你都可以直接在項目中使用 TensorFlow 或 Keras。

讀者的疑問

對此,有讀者提出了尖銳的疑問:

根據上述以及我的了解,不少開發者仍糾纏在 Keras 和 TensorFlow 究竟是什麼的問題,可能對此我也不甚了解,但我還是希望提出一些澄清性的問題:

一是在這二者中,將一個視為計算引擎,另一個作為一種工具包是否正確?如果這樣的話,我猜測 TensorFlow 是工具包而 Keras 是計算後端?

二是你也提到 TensorFlow 與 Caffe 的整合,但為了支持 Keras 已經放棄了 Caffe。您能分享您為什麼會這樣的原因嗎?是 Caffe不再可用,還是因為 Keras 有了更多功能?

對此,Adrian Rosebrock 回應道:

是的,Keras 本身依賴於 TensorFlow、Theano、CNTK 等後端來執行實際的計算。

Caffe 仍存在,只是其他功能已經分解為 Caffe2 。TensorFlow 從未成為 Caffe 的一部分。我們仍使用 Caffe,尤其是研究人員。但從業者尤其是 Python 的從業者更喜歡編程友好的庫如 TensorFlow、Keras、PyTorch 或 mxnet。

對此,你又有何疑問或看法呢?歡迎留言。

相關鏈接:https://www.pyimagesearch.com/2018/10/08/keras-vs-tensorflow-which-one-is-better-and-which-one-should-i-learn/

【完】


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 AI科技大本營 的精彩文章:

Google發布「多巴胺」開源強化學習框架,三大特性全滿足
翻譯們又要失業?Facebook最新無監督機器翻譯成果,BLEU提升10個點!

TAG:AI科技大本營 |