當前位置:
首頁 > 知識 > 贈書!這本CNN入門材料《解析卷積神經網路》想不想要?

贈書!這本CNN入門材料《解析卷積神經網路》想不想要?

機器之心發布

機器之心編輯部

曠視南京研究院院長、周志華高徒魏秀參的著作《解析深度學習:卷積神經網路原理與視覺實踐》不久前出版,機器之心將抽送 5 本書作為新年福利~嘻嘻~

作者簡介

魏秀參,曠視南京研究院院長,南京大學計算機系機器學習與數據挖掘所(LAMDA)博士,研究方向為計算機視覺和機器學習。曾在國際頂級期刊和會議發表多篇學術論文,並兩次獲得國際計算機視覺相關競賽冠亞軍。

2017 年 12 月,還在南京大學計算機系機器學習與數據挖掘所(LAMDA)讀博的魏秀參開放了這本書的資源。這是一本系統完整的 CNN 入門材料,是面向中文讀者的輕量級、實用深度學習工具書,內容側重深度卷積神經網路的基礎知識和實踐應用。2018 年 11 月,這本書由電子工業出版社出版,由南京大學周志華教授作序。

作者在前言部分介紹了這本書的主要內容:

本書從實用角度著重解析了深度學習中的一類神經網路模型——卷積神經網路,向讀者剖析了卷積神經網路的基本部件與工作機理,更重要的是系統性地介紹了深度卷積神經網路在實踐應用方面的細節配置與工程經驗。筆者希望本 書「小而精」,避免像某些國外相關書籍一樣淺嘗輒止的「大而空」。

全書共 14 章,除「緒論」外可分為兩個部分:第一部分「基礎理論篇」包括 第 1~4 章,介紹卷積神經網路的基礎知識、基本部件、經典結構和模型壓縮等基礎理論內容;第二部分「實踐應用篇」包括第 5~14 章,介紹深度卷積神經網路自數據準備開始,到模型參數初始化、不同網路部件的選擇、網路配置、網路模型訓練、不平衡數據處理,最終到模型集成等實踐應用技巧和經驗。另外,本書基本在每章結束均有對應小結,讀者在閱讀完每章內容後不妨掩卷回憶,看是否完全掌握此章重點。對卷積神經網路和深度學習感興趣的讀者可 通讀全書,做到「理論結合實踐」;對希望迅速應用深度卷積神經網路來解決實際問題的讀者,也可直接參考第二部分的有關內容,做到「有的放矢」。

在我們的體驗中,這本書有很多獨到的內容,例如綜述了卷積網路的壓縮演算法、介紹了不平衡樣本的處理方法等。這些內容可能在特定的綜述論文中看到,但像《深度學習》這樣的標準教科書並不會提到,因為它們和工程與實踐結合地非常緊密。

例如在卷積網路的壓縮演算法中,這本書介紹了低秩近似、剪枝與稀疏約束、參數量化、二值網路、知識蒸餾和緊湊的網路結構等,這些基礎概念對實踐有非常重要的作用。如下對整體模型壓縮方法做了簡要的介紹:

儘管卷積神經網路在諸如計算機視覺、自然語言處理等領域均取得了出類拔萃 的效果,但其動輒過億的參數數量卻使得諸多實際應用(特別是基於嵌入式設 備的應用)望而卻步。以經典的 VGG-16 網路 為例,其參數數量達到了 1 億 3 千多萬,佔用逾 500MB 的磁碟存儲空間,需要進行 309 億次浮點運算才能完成一張圖像的識別任務。如此巨 大的存儲代價以及計算開銷,嚴重製約了深度網路在移動端等小型設備上的應用。

鑒於此,神經網路的壓縮逐漸成為當下深度學習領域的熱門研究課題。按照壓縮過程對網路結構的破壞程度,我們將模型壓縮技術分為「前端壓縮」與「後端壓縮」兩部分。所謂「前端壓縮」,是指不改變原網路結構的壓縮 技術,主要包括知識蒸餾、緊湊的模型結構設計以及濾波器層面的剪枝等;而「後端壓縮」則包括低秩近似、未加限制的剪枝、參數量化以及二值網路等,其目標在於儘可能地減少模型大小,因而會對原始網路結構造成極大 程度的改造。其中,由於「前端壓縮」未改變原有的網路結構,僅僅只是在原 模型的基礎上減少了網路的層數或者濾波器的個數,其最終的模型可完美適配現有的深度學習庫。相比之下,「後端壓縮」為了追求極致的壓縮比,不得不對原有的網路結構進行改造,如對參數進行量化表示等,而這 樣的改造往往是不可逆的。同時,為了獲得理想的壓縮效果,必須開發相配套的運行庫,甚至是專門的硬體設備,其最終的結果往往是一種壓縮技術對應於 一套運行庫,從而帶來了巨大的維護成本。

很多時候,如果不是專門去了解模型壓縮相關的研究與文獻,我們很難對模型壓縮的整體技術與優缺點有一個比較直觀的理解。通過這本關注實踐的書籍,我們對這些技術能有一個宏觀的掌握,繼續實現就只需要查具體文獻和代碼就行了。

具體目錄如下:

長按識別小程序碼,試試手氣吧~


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 機器之心 的精彩文章:

南京航空航天大學開源ALiPy:用於主動學習的Python工具包
自動機器學習計算量大!這種多保真度優化技術是走嚮應用的關鍵

TAG:機器之心 |