當前位置:
首頁 > 知識 > 開源一年多的模型交換格式ONNX,已經一統框架江湖了?

開源一年多的模型交換格式ONNX,已經一統框架江湖了?

機器之心原創

作者:思源

近日,微軟亞洲研究院和華為舉辦了 ONNX 合作夥伴研討會,這是 ONNX 開源社區成立以來首次在中國舉辦的活動。在研討會中,微軟、Facebook、華為和英特爾等的開發者介紹了他們在 ONNX 上的開源貢獻及思考。

在過去的一年多中,ONNX 這種「通用」的神經網路交換格式已經有了很長遠的發展,用不同框架編寫的模型可以在不同的平台中流通。在這次研討會中,我們確切地感受到了這一點,因為開源社區圍繞著 ONNX 介紹了很多優化工具和資源庫。

微軟上個月開源了 ONNX Runtime,其專為 ONNX 格式的模型設計了高性能推理引擎。Facebook 早兩個月前開源了 ONNXIFI,其為 ONNX 提供了用於框架集成的介面,即一組用於載入和執行 ONNX 計算圖的跨平台 API。更早一些,英特爾在今年 3 月份就開源 nGraph,它能編譯 ONNX 格式的模型,並在 CPU 或 GPU 等硬體加速模型的運行。

而到了昨天,微軟又開源了 ONNX.JS,它是一種在瀏覽器和 Node.js 上運行 ONNX 模型的 JavaScript 庫。它部署的模型效率非常高,且能實現互動式的直觀推理。該開源項目給出了圖像分類的互動式演示,且在 Chrome 瀏覽器和 CPU 下比 TensorFlow.JS 快了近 8 倍,後文將詳細介紹這一開源庫。

當然除了這些開源工作,ONNX 社區還有更多的實踐,例如如何部署 ONNX 模型到邊緣設備、如何維護一個包羅萬象的 ONNX Model Zoo 等。本文主要從什麼是 ONNX、怎樣用 ONNX,以及如何優化 ONNX 三方面看看 ONNX 是不是已經引領「框架間的江湖」了。

什麼是 ONNX

很多開發者在玩 GitHub 的時候都有這樣「悲痛」的經歷,好不容易找到令人眼前一亮的項目,然而發現它使用我們不熟悉的框架寫成。其實我們會發現很多優秀的視覺模型是用 Caffe 寫的,很多新的研究論文是用 PyTorch 寫的,而更多的模型用 TensorFlow 寫成。因此如果我們要測試它們就必須擁有對應的框架環境,但 ONNX 交換格式令我們在同一環境下測試不同模型有了依靠。

簡而言之 ONNX 就是一種框架間的轉換格式,例如我們用 TensorFlow 寫的模型可以轉換為 ONNX 格式,並在 Caffe2 環境下運行該模型。

項目地址:https://github.com/onnx/onnx

ONNX 定義了一種可擴展的計算圖模型、一系列內置的運算單元(OP)和標準數據類型。每一個計算流圖都定義為由節點組成的列表,並構建有向無環圖。其中每一個節點都有一個或多個輸入與輸出,每一個節點稱之為一個 OP。這相當於一種通用的計算圖,不同深度學習框架構建的計算圖都能轉化為它。

如下所示,目前 ONNX 已經支持大多數框架,使用這些框架構建的模型可以轉換為通用的 ONNX 計算圖和 OP。現階段 ONNX 只支持推理,所以導入的模型都需要在原框架完成訓練。

其中 Frameworks 下的框架表示它們已經內嵌了 ONNX,開發者可以直接通過這些框架的內置 API 將模型導出為 ONNX 格式,或採用它們作為推理後端。而 Converters 下的框架並不直接支持 ONNX 格式,但是可以通過轉換工具導入或導出這些框架的模型。

其實並不是所有框架都支持導入和導出 ONNX 格式的模型,有一些並不支持導入 ONNX 格式的模型,例如 PyTorch 和 Chainer 等,TensorFlow 的 ONNX 導入同樣也正處於實驗階段。下圖展示了各框架對 ONNX 格式的支持情況:

怎樣使用 ONNX

對於內建了 ONNX 的框架而言,使用非常簡單,只需要調用 API 導出或導入已訓練模型就可以了。例如對 PyTorch 而言,只需要幾個簡單的步驟就能完成模型的導出和導入。簡單而言,首先載入 torch.onnx 模塊,然後導出預訓練模型並查看模型結構信息,最後再將導出的 ONNX 模型載入到另外的框架就能執行推理了。

如上所示將導出 ONNX 格式的 AlexNet 模型,其中"alexnet.onnx"為保存的模型,input_names、output_names 和 verbose=True 都是為了列印出模型結構信息。同樣隨機產生的「圖像」dummy_input 也是為了了解模型結構,因為我們可以通過它理解輸入與每一層具體的參數維度。以下展示了 ONNX 輸出的簡要模型信息:

其實我們也可以藉助 ONNX 檢查中間表徵,不過這裡並不介紹。後面載入另外一個框架並執行推理同樣非常簡單。如下所示,我們可以從 caffe2 中載入 ONNX 的後端,並將前面保存的模型載入到該後端,從而在新框架下進行推理。這裡我們能選擇執行推理的硬體,並直接推理得出輸出結果。

其實也就兩三行代碼涉及 ONNX 的核心操作,即導出模型、載入模型和載入另一個框架的後端。TensorFlow 或 CNTK 等其它框架的具體 API 可能不一樣,但主要過程也就這簡單的幾步。

怎樣優化 ONNX

前面就已經介紹了 Model Zoo、ONNX Runtime 和 ONNX.JS,現在,我們可以具體看看它們都是什麼,它們怎樣才能幫助我們優化 ONNX 模型的選擇與推理速度。

Model Zoo

ONNX Model Zoo 包含了一系列預訓練模型,它們都是 ONNX 格式,且能獲得當前最優的性能。因此只要下載這樣的模型,我們本地不論是 TensorFlow 還是 MXNet,只要是只是能載入模型的框架,就能運行這些預訓練模型。

項目地址:https://github.com/onnx/models

更重要的是,這個 Model Zoo 不僅有調用預訓練模型的代碼,它還為每個預訓練模型開放了對應的訓練代碼。訓練和推理代碼都是用 Jupyter Notebook 寫的,數據和模型等都有對應的鏈接。

目前該 Model Zoo 主要從圖像分類、檢測與分割、圖像超分辨、機器翻譯和語音識別等 14 個方向包含 19 種模型,還有更多的模型還在開發中。如下展示了圖像分類中已經完成的模型,它們都是通用的 ONNX 格式。

此外在這次的研討會中,Model Zoo 的維護者還和大家討論了目前面臨的問題及解決方法,例如目前的預訓練模型主要集中在計算機視覺方面、ONNX 缺少一些特定的 OP、權重計算圖下載慢等。因此 Model Zoo 接下來也會更關注其它語音和語言等模型,優化整個 GitHub 項目的下載結構。

ONNX Runtime

微軟開源的 ONNX Runtime 推理引擎支持 ONNX 中定義的所有運算單元,它非常關注靈活性和推理性能。因此不論我們的開發環境是什麼,Runtime 都會基於各種平台與硬體選擇不同的自定義加速器,並希望以最小的計算延遲和資源佔用完成推理。

文檔地址:https://docs.microsoft.com/en-us/python/api/overview/azure/onnx/intro

ONNX Runtime 可以自動調用各種硬體加速器,例如英偉達的 CUDA、TensorRT 和英特爾的 MKL-DNN、nGraph。如下所示,ONNX 格式的模型可以傳入到藍色部分的 Runtime,並自動完成計算圖分割及並行化處理,最後我們只需要如橙色所示的輸入數據和輸出結果就行了。

其實在實際使用的時候,開發者根本不需要考慮藍色的部分,不論是編譯還是推理,代碼都賊簡單。如下所示,導入 onnxruntime 模塊後,調用 InferenceSession() 方法就能導入 ONNX 格式的模型,並完成上圖一系列複雜的優化。最後只需要 session.run() 就可以進行推理了,所有的優化過程都隱藏了細節。

在研討會中,開發者表示 Runtime 的目標是構建高性能推理引擎,它需要利用最好的加速器和完整的平台支持。只需要幾行代碼就能把計算圖優化一遍,這對 ONNX 格式的模型是個大福利。

ONNX.JS

ONNX.js 是一個在瀏覽器上運行 ONNX 模型的庫,它採用了 WebAssembly 和 WebGL 技術,並在 CPU 或 GPU 上推理 ONNX 格式的預訓練模型。

項目地址:https://github.com/Microsoft/onnxjs

Demo 展示地址:https://microsoft.github.io/onnxjs-demo

通過 ONNX.js,開發者可以直接將預訓練的 ONNX 模型部署到瀏覽器,這些預訓練模型可以是 Model Zoo 中的,也可以是自行轉換的。部署到瀏覽器有很大的優勢,它能減少伺服器與客戶端之間的信息交流,並獲得免安裝和跨平台的機器學習模型體驗。如下所示為部署到網頁端的 SqueezeNet:

如上若是選擇 GPU,它會採用 WebGL 訪問 GPU。如果選擇 CPU,那麼其不僅會採用 WebAssembly 以接近原生的速度執行模型,同時也會採用 Web Workers 提供的「多線程」環境來並行化數據處理。該項目表明,通過充分利用 WebAssembly 和 Web Workers,CPU 可以獲得很大的性能提升。這一點在項目提供的 Benchmarks 中也有相應的展示:

以上微軟在 Chrome 和 Edge 瀏覽器中測試了 ResNet-50 的推理速度,其中比較顯著的是 CPU 的推理速度。這主要是因為 Keras.js 和 TensorFlow.js 在任何瀏覽器中都不支持 WebAssembly。

最後,從 ONNXIFI 到 ONNX.js,開源社區已經為 ONNX 格式構建出眾多的優化庫、轉換器和資源。很多需要支持多框架的場景也都將其作為默認的神經網路格式,也許以後,ONNX 真的能統一神經網路之間的江湖。

每日精選教程,掃碼開啟訂閱,每天18:00及時速遞。


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 機器之心 的精彩文章:

同行評審也存在「貧富不均」?你被剝奪了幾次參與同行評審的機會?
如何幫助大家找工作?領英利用深度表徵學習提升人才搜索和推薦系統

TAG:機器之心 |