當前位置:
首頁 > 科技 > 谷歌發布輕量級視覺架構MobileNetV2,速度快準確率高

谷歌發布輕量級視覺架構MobileNetV2,速度快準確率高

林鱗 編譯自 Google Research Blog

量子位 出品 | 公眾號 QbitAI

深度學習在移動端部署的挑戰仍在。

雖然深度學習在圖像分類、檢測等任務上頗具優勢,但提升模型精度對能耗和存儲空間的要求很高,移動設備通常難以達到要求。

別怕。昨天,谷歌發布了新一代移動架構MobileNetV2。

這是一種為移動設備設計的通用計算機視覺神經網路,支持圖像分類和檢測等任務,結果比上一代模型有顯著提升。在個人移動設備上運行深度網路能時能提升體驗,讓用戶能在任何時間和地點進行訪問,在安全、隱私和能耗上還有額外優勢。

新特性

基於去年發布的MobileNetV1的構建思路,新模型將深度可分離的卷積作為有效構建模塊。在架構上,MobileNetV2引入了兩個新特性:一是層與層之間的線性瓶頸(linear bottlenecks),二是瓶頸之間的快捷連接。基本結構如下圖所示:

MobileNetV2架構概覽 | 藍色塊表示複合卷積架構模塊

性能增強

總體來說,MobileNetV2能以更快的速度達到與V1相同的精度。

尤其值得注意的是,新模型減少了一半運算,所需參數減少30%,在谷歌Pixel手機上速度比MobileNetV1快了30-40%,同時實現了更高的精度。

MobileNetV2提高了速度(降低了延遲)並增加了ImageNet的Top 1的精度

在對象檢測和分割任務中,MobileNetV2是種非常有效的特徵提取器。例如當與新引入的SSDLite配對時,達到與MobileNetV1相同準確度時速度快了35%。目前研究人員已經在Tensorflow對象檢測API下開放了這個模型。

為了實現設備上的語義分割,研究人員將MobileNetV2作為一個特徵提取器,簡化了用移動語義分割模型DeepLabv3構建新的Mobile DeepLabv3的過程。

在語義分割基準上,PASCAL VOC 2012結果模型達到與使用MobileNetV1作為特徵提取器相似的性能,但所需參數減少了5.3倍,所需運算減少了5.2倍。

總體來說,MobileNetV2提供了一個高效的移動導向模型,可作為許多視覺識別任務的基礎。

資源下載

目前,MobileNetV2作為TensorFlow-Slim圖像分類庫的一部分發布,用戶也可在Colaboratory中開始探索使用。

此外,MobileNetV2也可作為TF-Hub上的模塊,能在GitHub中找到預先訓練的檢查點。

官方博客介紹:

https://research.googleblog.com/2018/04/mobilenetv2-next-generation-of-on.html

相關論文:

https://128.84.21.199/abs/1801.04381

代碼地址:

https://github.com/tensorflow/models/tree/master/research/slim/nets/mobilenet

TensorFlow-Slim圖像分類庫:

https://github.com/tensorflow/models/blob/master/research/slim/README.md

Colaboratory地址:

https://colab.research.google.com/github/tensorflow/models/blob/master/research/slim/nets/mobilenet/mobilenet_example.ipynb

作者系網易新聞·網易號「各有態度」簽約作者

活動報名

加入社群

量子位AI社群15群開始招募啦,歡迎對AI感興趣的同學,加小助手微信qbitbot6入群;

此外,量子位專業細分群(自動駕駛、CV、NLP、機器學習等)正在招募,面向正在從事相關領域的工程師及研究人員。

進群請加小助手微信號qbitbot6,並務必備註相應群的關鍵詞~通過審核後我們將邀請進群。(專業群審核較嚴,敬請諒解)

誠摯招聘

量子位正在招募編輯/記者,工作地點在北京中關村。期待有才氣、有熱情的同學加入我們!相關細節,請在量子位公眾號(QbitAI)對話界面,回復「招聘」兩個字。

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 量子位 的精彩文章:

17種GAN變體的Keras實現請收好
曠視首席科學家孫劍:計算機視覺的變革與挑戰

TAG:量子位 |