當前位置:
首頁 > 最新 > 《深度學習之美:AI時代的數據處理與最佳實踐》

《深度學習之美:AI時代的數據處理與最佳實踐》

《深度學習之美:AI時代的數據處理與最佳實踐》

張玉宏 著

2018年6月出版

新書預售中,點擊此處參與抽獎搶鮮閱讀,選取1 名同學獲贈此書,7月2日自動開獎。

內容簡介

深度學習是人工智慧的前沿技術。本書深入淺出地介紹了深度學習的相關理論和實踐,全書共分16章,採用理論和實踐雙主線寫作方式。第1章給出深度學習的大圖。第2章和第3章,講解了機器學習的相關基礎理論。第4章和第5章,講解了Python基礎和基於Python的機器學習實戰。第6至10章,先後講解了M-P模型、感知機、多層神經網路、BP神經網路等知識。第11章講解了被廣泛認可的深度學習框架TensorFlow。第12章和第13章詳細講解了卷積神經網路,並給出了相關的實戰項目。第14章和第15章,分別講解了循環遞歸網路和長短期記憶(LSTM)網路。第16章講解了神經膠囊網路,並給出了神經膠囊網路設計的詳細論述和實踐案例分析。

本書結構完整、行文流暢,是一本難得的零基礎入門、圖文並茂、通俗易懂、理論結合實戰的深度學習書籍。

大咖推薦

黃文堅/ 墨寬投資創始人、《TensorFlow實戰》作者

@我是主題曲哥哥/ 網易高級編輯,前阿里雲資深內容運營、CSDN&《程序員》雜誌編輯

鄭澤宇/ 知衣科技CEO

李鑫/ 科大訊飛研究院研究主管

王天一/ 極客時間專欄作者、貴州大學副教授

梁博文/ Google機器翻譯組工程師

自序節摘

寫一本零基礎入門的、通俗易懂的、圖文並茂的、理論結合實戰的深度學習書籍,對廣大的深度學習初學者來說,應該是有用的。

本書的寫作風格,也緊扣前面的四個修飾詞,章節的安排也是按照循序漸進的節奏展開的。為了降低門檻和強調實踐性,本書採用了雙主線寫作方式,一條主線是理論脈絡,從基礎的機器學習概念,到感知機、M-P模型、全連接網路,再到深度學習網路,深入淺出地講解相關的理論。另外一條主線是實戰脈絡,從Python零基礎入門說起,直到TensorFlow的高級應用。

全書共分16章,具體來說,第1章給出深度學習的大圖(Big Picture),讓讀者對其有一個宏觀認知。第2章和第3章,給出了機器學習的相關基礎理論。僅僅懂理論是不夠的,還需要動手實踐,用什麼實踐呢?最熱門的機器學習語言非Python莫屬了。於是我們在第4章添加了Python基礎,以邊學邊用邊提高為基調,並在第5章講解了基於Python的機器學習實戰。

有了部分Python基礎,也有了部分機器學習基礎,接下來,我們該學習與神經網路相關的理論了。於是在第6章至第10章,我們先後講解了M-P模型、感知機、多層神經網路、BP神經網路等知識。其中大部分的理論都配有Python實戰講解,就是讓讀者有「頂天(上接理論)立地(下接實戰)」的感覺。接下來的問題就是,如果所有神經網路學習的項目都是Python手工編寫的,是不是效率太低了呢?

是的,是該考慮用高效率框架的時候了,於是在第11章,我們講解了被廣泛認可的深度學習框架TensorFlow。有了這個基礎,後面的深度學習理論就以此做實戰基礎。第12章詳細講解了卷積神經網路。隨後,在第13章,我們站在實戰的基礎上,對卷積神經網路的TensorFlow實踐進行了詳細介紹。

任何一項技術都有其不足。在第14章,我們講解了循環遞歸網路(RNN)。在第15章,我們講解了長短期記憶(LSTM)網路。以上兩章內容,並非都是高冷的理論,除了給出理論背後有意思的小故事,還結合TensorFlow進行了實戰演練。在第16章,我們順便「驚鴻一瞥」解讀了Hinton教授的新作「神經網路膠囊(CapsNet)」,點出卷積神經網路的不足,並給出了神經膠囊的詳細論述和實踐案例分析。

本書中的部分內容(共計14篇),先後發表在技術達人云集的雲棲社區(https://yq.aliyun. com/topic/111),然後被很多熱心的網友轉載到CSDN、知乎、微信公眾號、百度百家等自媒體中,受到了很多讀者的認可。於吾心,有樂陶然。

當然,從我對自己的定位——「小兵探道」可知,我對深度學習的認知,仍處於一種探索階段,我仍是一個深度學習的學習者。在圖書中、在網路中,我學習並參考了很多有價值的資料。這裡,我對這些有價值的資料的提供者、生產者,表示深深的敬意和謝意。

張玉宏

2018年3月

本書目錄

第1章 一入侯門「深」似海,深度學習深幾許 1

1.1 深度學習的巨大影響 2

1.2 什麼是學習 4

1.3 什麼是機器學習 4

1.4 機器學習的4個象限 5

1.5 什麼是深度學習 6

1.6 「戀愛」中的深度學習 7

1.7 深度學習的方法論 9

1.8 有沒有淺層學習 13

1.9 本章小結 14

1.10 請你思考 14

第2章 人工「碳」索意猶盡,智能「硅」來未可知 16

2.1 信數據者得永生嗎 17

2.2 人工智慧的「江湖定位」 18

2.3 深度學習的歸屬 19

2.4 機器學習的形式化定義 21

2.5 為什麼要用神經網路 24

2.6 人工神經網路的特點 26

2.7 什麼是通用近似定理 27

2.8 本章小結 31

2.9 請你思考 31

第3章 「機器學習」三重門,「中庸之道」趨若人 33

3.1 監督學習 34

3.2 非監督學習 39

3.3 半監督學習 45

3.4 從「中庸之道」看機器學習 47

3.5 強化學習 49

3.6 本章小結 52

3.7 請你思考 53

第4章 人生苦短對酒歌, 我用Python樂趣多 55

4.1 Python概要 56

4.2 Python的版本之爭 61

4.3 Python環境配置 65

4.4 Python編程基礎 76

4.5 本章小結 112

4.6 請你思考 112

第5章 機器學習終覺淺,Python帶我來實踐 114

5.1 線性回歸 115

5.2 k-近鄰演算法 139

5.3 本章小結 162

5.4 請你思考 162

第6章 神經網路不勝語,M-P模型似可尋 164

6.1 M-P神經元模型是什麼 165

6.2 模型背後的那些人和事 167

6.3 激活函數是怎樣的一種存在 175

6.4 什麼是卷積函數 176

6.5 本章小結 177

6.6 請你思考 178

第7章 Hello World感知機,懂你我心才安息 179

7.1 網之初,感知機 180

7.2 感知機名稱的由來 180

7.3 感性認識「感知機」 183

7.4 感知機是如何學習的 185

7.5 感知機訓練法則 187

7.6 感知機的幾何意義 190

7.7 基於Python的感知機實戰 191

7.8 感知機的表徵能力 196

7.9 本章小結 199

7.10 請你思考 199

第8章 損失函數減肥用,神經網路調權重 201

8.1 多層網路解決「異或」問題 202

8.2 感性認識多層前饋神經網路 205

8.3 是淺而「胖」好,還是深而「瘦」佳 209

8.4 分散式特徵表達 210

8.5 丟棄學習與集成學習 211

8.6 現實很豐滿,理想很骨感 212

8.7 損失函數的定義 213

8.8 熱力學定律與梯度彌散 215

8.9 本章小結 216

8.10 請你思考 216

第9章 山重水複疑無路,最快下降問梯度 219

9.1 「鳥飛派」還飛不 220

9.2 1986年的那篇神作 221

9.3 多層感知機網路遇到的大問題 222

9.4 神經網路結構的設計 225

9.5 再議損失函數 227

9.6 什麼是梯度 229

9.7 什麼是梯度遞減 231

9.8 梯度遞減的線性回歸實戰 235

9.9 什麼是隨機梯度遞減 238

9.10 利用SGD解決線性回歸實戰 240

9.11 本章小結 247

9.12 請你思考 248

第10章 BP演算法雙向傳,鏈式求導最纏綿 249

10.1 BP演算法極簡史 250

10.2 正向傳播信息 251

10.3 求導中的鏈式法則 255

10.4 誤差反向傳播 264

10.5 BP演算法實戰詳細解釋 280

10.6 本章小結 301

10.7 請你思考 302

第11章 一騎紅塵江湖笑,TensorFlow谷歌造 305

11.1 TensorFlow概述 306

11.2 深度學習框架比較 309

11.3 TensorFlow的安裝 313

11.4 Jupyter Notebook的使用 331

11.5 TensorFlow中的基礎語法 337

11.6 手寫數字識別MNIST 372

11.7 TensorFlow中的Eager執行模式 394

11.8 本章小結 401

11.9 請你思考 402

第12章 全面連接困何處,卷積網路顯神威 404

12.1 卷積神經網路的歷史 405

12.2 卷積神經網路的概念 412

12.3 圖像處理中的卷積 414

12.4 卷積神經網路的結構 420

12.5 卷積層要義 422

12.6 細說激活層 434

12.7 詳解池化層 442

12.8 勿忘全連接層 445

12.9 本章小結 446

12.10 請你思考 447

第13章 紙上談兵終覺淺,絕知卷積要編程 450

13.1 TensorFlow的CNN架構 451

13.2 卷積層的實現 452

13.3 激活函數的使用 460

13.4 池化層的實現 466

13.5 規範化層 470

13.6 卷積神經網路在MNIST分類器中的應用 480

13.7 經典神經網路——AlexNet的實現 488

13.8 本章小結 495

13.9 請你思考 496

第14章 循環遞歸RNN,序列建模套路深 498

14.1 你可能不具備的一種思維 499

14.2 標準神經網路的缺陷所在 501

14.3 RNN簡史 502

14.4 RNN的理論基礎 506

14.5 RNN的結構 509

14.6 循環神經網路的訓練 512

14.7 基於RNN的TensorFlow實戰——正弦序列預測 514

14.8 本章小結 524

14.9 請你思考 524

第15章 LSTM長短記,長序依賴可追憶 526

15.1 遺忘是好事還是壞事 527

15.2 施密德胡伯是何人 527

15.3 為什麼需要LSTM 529

15.4 拆解LSTM 530

15.5 LSTM的前向計算 533

15.6 LSTM的訓練流程 539

15.7 自然語言處理的一個假設 540

15.8 詞向量表示方法 542

15.9 自然語言處理的統計模型 549

15.10 基於Penn Tree Bank的自然語言處理實戰 560

15.11 本章小結 579

15.12 請你思考 580

第16章 卷積網路雖動人,膠囊網路更傳「神」 583

16.1 從神經元到神經膠囊 584

16.2 卷積神經網路面臨的挑戰 584

16.3 神經膠囊的提出 588

16.4 神經膠囊理論初探 591

16.5 神經膠囊的實例化參數 594

16.6 神經膠囊的工作流程 598

16.7 CapsNet的驗證與實驗 614

16.8 神經膠囊網路的TensorFlow實現 618

16.9 本章小結 644

16.10 請你思考 645

16.11 深度學習美在何處 646

新書預售中,點擊此處參與抽獎搶鮮閱讀,選取1 名同學獲贈此書,7月2日自動開獎。


您閱讀的專業智庫

喜歡請分享至朋友圈


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 博文視點Broadview 的精彩文章:

《Nginx完全開發指南:使用C、C+和OpenResty》

TAG:博文視點Broadview |