當前位置:
首頁 > 知識 > 想轉行人工智慧?機會來了!

想轉行人工智慧?機會來了!

一個壞消息:

2018年1月 教育部印發的《普通高中課程方案和語文等學科課程標準》新加入了數據結構、人工智慧、開源硬體設計等 AI 相關的課程。

這意味著職場新人和準備找工作的同學們,為了在今後十年內不被淘汰,你們要補課了,從初中開始。

一個好消息:

人工智慧尖端人才遠遠不能滿足需求。行業風口的人工智慧,在中國人才缺口將超過500萬人,而中國人工智慧人才數量目前只有5萬(數據來自工信部教育考試中心)。

並且目前崗位溢價相當嚴重,2017年人工智慧在互聯網崗位薪酬中位列第三,月薪20.1k,如果按照普遍的16月薪酬計算,那麼人工智慧在2017年一年的薪酬就是2.01*16=32.16萬。那麼再來看一組2018的薪酬數據:

所以如果你對自己的專業/工作不滿意,現在正是進入人工智慧領域學習就業/轉業的最佳時機。

在面對眾多的數學知識和編程知識里,自學會讓大家耗費大量的時間金錢。因此,全球人工智慧學院攜手新加坡國立大學斯坦福、中國科學院等多所名校的人工智慧領域博士共同推出了人工智慧《深度學習專業班》課程。

《深度學習專業班》帶你從零學習深度學習:從基礎的名詞概念,數學符號、數學公式推導、演算法模型、神經網路模型,以及每一種演算法的市級應用,從理論到實戰。每周二、周四晚上8點2次直播(隨時回放)。(名師講授,講師答疑、學員社群7*24小時交流,助教每天輔導學習,從理論到實踐,只有一個目標:讓你學會!)

-課程的部分老師-

-基礎資料-

資料1:演算法相關數學符號表

資料2:AI相關辭彙中英文對照表

資料3:演算法相關辭彙的概念和含義表

第一部分:機器學習介紹

1.1 機器學習介紹

1.1.1 機器學習的概念

1.1.2 機器學習的流程

1.1.3 機器學習的分類

1.2 監督學習/非監督/半監督

1.2.1 監督學習的概念和含義

1.2.2 監督學習的模型和原理

1.2.3 監督學習的主要演算法

1.2.4 監督學習的主要應用

1.2.5 非監督學習與和半監督學習

1.3 強化學習

1.3.1 強化學習的概念和含義

1.3.2 強化學習的模型和原理

1.3.3 強化學習的主要演算法

1.3.4 強化學習的主要應用

1.4 遷移學習

1.4.1 遷移學習的概念和含義

1.4.2 遷移學習的分類

1.4.3 遷移學習的主要演算法

1.4.4 遷移學習的主要應用

1.5 模型評估與選擇方法

1.5.1 經驗誤差和過擬合

1.5.2 評估的主要方法

1.5.3 性能度量和比較檢驗

1.5.4 偏差和方差

第二步部分:機器學習演算法和應用

2.1 線性回歸

2.1.1 一元線性回歸

2.1.2 多元線性回歸

2.1.3 帶正則項的線性回歸

2.1.4 帶核函數的線性回歸

2.1.5 線性回歸的實例分析

2.2 邏輯回歸/softmax回歸

2.2.1 邏輯回歸的概念和分布介紹

2.2.2 邏輯回歸的模型和參數估計

2.2.3 邏輯回歸的損失函數和優化方法

2.2.3 邏輯回歸的正則化

2.2.4 softmax回歸的介紹

2.2.5 邏輯回歸的實例分析

2.3 決策樹

2.3.1 決策樹思想

2.3.2 決策樹演算法

2.3.3 決策樹實例

2.3.4 決策樹延伸

2.4 隨機森林

2.4.1 隨機森林與決策樹的關係

2.4.2 隨機森林的特點

2.4.3 隨機森林的構建生成

2.4.4 隨機森林的工作原理

2.4.5 隨機森林的評估

2.4.6 隨機森林的應用

2.5 支持向量機

2.5.1 支持向量機的概念和類型

2.5.2 線性可分支持向量機與硬間隔最大化

2.5.3 線性支持向量機與軟間隔最大化

2.5.4 非線性支持向量機與核函數

2.5.5 序列最小最優化演算法

2.5.6 支持向量機的應用

2.6 集成演算法

2.6.1 個體與集成

2.6.2 Boosting介紹

2.6.2.1Adaboost

2.6.2.2GBDT

2.6.2.3XGBoost

2.6.3 Bagging介紹

2.6.4 結合的策略

2.6.5 多樣性

2.6.6 集成演算法的應用

2.7 Gradient Boost

2.7.1 Gradient Boost的概念與特點

2.7.2 Gradient Boost的演算法流程

2.7.3 Gradient tree boosting

2.7.4 Gradient Boost正則化

2.7.5 Gradient Boost 的應用

2.8 樸素貝葉斯

2.8.1 樸素貝葉斯相的關數學知識

2.8.2 樸素貝葉斯的模型

2.8.3 樸素貝葉斯的推斷過程

2.8.4 樸素貝葉斯的參數估計

2.8.5 樸素貝葉斯的演算法流程

2.8.6 樸素貝葉斯的優缺點分析

2.8.7 樸素貝葉斯的應用

2.9 k最近鄰演算法

2.9.1 k最近鄰演算法概念和特點介紹

2.9.2 k最近鄰演算法流程

2.9.3 k最近鄰演算法模型

2.9.4 k最近鄰演算法距離度量

2.9.5 k最近鄰演算法k值的選擇

2.9.6 k最近鄰演算法分類決策規則

2.9.7 k最近鄰演算法實現:kd樹

2.9.8 k最近鄰演算法應用

2.10 k均值演算法

2.10.1 k均值演算法概念、流程和特點介紹

2.10.2 k值的選擇方法

2.10.3 k均值演算法質心的選擇

2.10.4 k均值演算法距離的度量

2.10.5 k均值演算法質心的計算

2.10.6 k均值演算法評價標準和停止條件

2.10.7 空聚類的處理

2.10.8 k均值演算法的應用和實現

2.10.9 二分K均值演算法

2.11 降維演算法

2.11.1 降維演算法的概念與介紹

2.11.2 降維的出發角度

2.11.3 典型的降維方法與流程

2.11.3.1主成分分析PCA

2.11.3.2多維縮放(MDS)

2.11.3.3線性判別分析(LDA)

2.11.3.4等度量映射(Isomap)

2.11.3.5局部線性嵌入(LLE)

2.11.3.6t-SNE

2.11.3.7Deep Autoencoder Networks

2.11.4 降維演算法的應用

2.12 遺傳演算法

2.12.1 遺傳演算法的概念和特點介紹

2.12.2 遺傳演算法的基本原理與流程

2.12.3 基本遺傳演算法和演算法的改進

2.12.4遺傳演算法中的各種函數

2.12.5 遺傳演算法的實例應用

2.13 高斯判別演算法

2.14.1 高斯判別演算法的概念與特點

2.14.2 高斯判別演算法的推導過程

2.14.3 演算法分析

2.14.4 高斯判別分析模型

2.14.5 高斯判別演算法的應用實現

2.14 優化演算法

2.15.1 梯度下降

2.15.2 牛頓動量

2.15.3 Adagrad

2.15.4 RMSProp

2.15.5 Adadelta

2.15.6 Adam

2.15隱性馬爾科夫模型

2.13.1 隱性馬爾科夫模型的概念與基本問題

2.13.2 隱形馬爾科夫模型的概率計算

2.13.3 隱性馬爾科夫的學習演算法

2.13.4 隱性馬爾科夫的預測演算法

2.16DBSCAN

2.16.1 DBSCAN的概念與原理

2.16.2 DBSCAN的流程

2.16.3 DBSCAN參數設置

2.16.4 DBSCAN演算法描述

2.16.5 DBSCAN演算法的聚類過程

2.16.6 演算法偽代碼

2.16.7 DBSCAN的應用

2.17DensityPeak

2.17.1 Density Peak的概念與特點

2.17.2 Density Peak演算法思想

2.17.3 Density Peak聚類過程

2.17.4 聚類中心的選擇

2.17.5 可靠性度量

2.17.6 Density Peak的實驗效果

2.17.7 Density Peak的應用

2.18Hierarchical Clustering

2.18.1 層次聚類的概念與原理

2.18.2 層次聚類的步驟流程

2.18.3 創建聚類樹的兩種方法

2.18.3.1 自下而上合併

2.18.3.2 自上而下分裂

2.18.4 層次聚類的演算法描述

2.18.5 相似性度量

2.18.6 層次聚類樹狀圖

2.18.7 層次聚類的應用

2.19Spectral Clustering

2.19.1 譜聚類的概念和原理分析

2.19.2 譜聚類的演算法流程

2.19.2.1 相似度矩陣S的構建

2.19.2.2 相似度圖G的構建

2.19.2.3 拉普拉斯矩陣

2.19.2.4 無向圖的切割

2.19.2.5 生成最小的特徵值和特徵向量

2.19.2.6 用特徵向量進行聚類

2.19.3 譜聚類與K均值演算法的關係

2.19.4 譜聚類代碼分析

2.19.5 譜聚類的應用

第三部分:深度學習演算法和應用

3.1 神經網路和深度學習介紹

3.1.1 神經網路的概念、含義

3.1.2 深度學習的概念,流程、評估指標和分類

3.13 神經網路與深度學習的關係

3.2 每種神經網路的網路結構、特點和應用等介紹

3.2.1 感知機(P)

3.2.2 前饋網路(FF)

3.2.3 徑向基網路(RBF)

3.2.4 深度前饋(DFF)

3.2.5 自動編碼網路(AE)

3.2.6 變分自編碼器 (VAE)

3.2.7 去噪自動編碼(DAE)

3.2.8 稀疏的自動編碼(SAE)

3.2.9 馬爾可夫鏈(MC)

3.2.10霍普菲爾網路(HN)

3.2.11 玻爾茲曼機(BM)

3.2.12 受限玻爾茲曼機(RBM)

3.2.13 深度置信(信念)網路(DBN)

3.2.14 神經圖靈機(NTM)

3.2.15 深度殘差網路(DRN)

3.2.16 回聲狀態網路(ESN)

3.2.17 極限學習機(ELM)

3.2.18 液態狀態機 (LSM)

3.2.19 反向傳播 (BP)

3.2.20 Kohonen網路(KN)

3.3深度神經網路(DNN)

3.3.1 深度神經網路結構和前向傳播

3.3.2 深度神經網路的反向傳播演算法

3.3.3 深度神經網路的損失函數和激活函數選擇

3.3.4 深度神經網路的正則化

3.4卷積神經網路(CNN

3.4.1 卷積神經網路的模型和原理

3.4.2 卷積神經網路的正向傳播

3.4.3 卷積神經網路的反向傳播

3.4.4 RCNN/Fast-RCNN/Faster-RCNN/MaskRCNN

3.4.5 卷積神經網路的其他變體:DCNN/DN/DCIGN

3.4.6 CNN在圖像技術裡面的實際應用

3.5循環神經網路RNN

3.5.1 循環神經網路的模型和原理

3.5.2 循環神經網路的前向反向傳播

3.5.3 LSTM模型和前向反向傳播

3.5.4 門控循環單元(GRU)

3.5.5 循環神經網路其他變種

3.5.6 RNN的在自然語言處理中的實際應用

3.6生成式對抗網路(GAN)

3.6.1 生成式對抗網路的模型和原理

3.6.2 Conditional GAN

3.6.3 DCGAN

3.6.4 WGAN

3.6.5 BEGAN

3.6.5 EBGAN

3.6.6 LS-GAN

3.6.7 cycle-GAN

3.6.8 Stack-GAN

3.6.9 InfoGAN

3.6.10 GAN的圖文轉化中的實際應用

3.7 記憶網路(MemNN)

3.7.1 記憶網路的概念和原理分析

3.7.2 記憶網路的流程與框架

3.7.3 實現文本的記憶網路

3.7.3.1 基本模型

3.7.3.2 一串的詞作為輸入

3.7.3.3 高效率的哈希內存

3.7.3.4 寫入時間的模型化

3.7.3.5 未見過的詞的模型化

3.7.3.6 準確匹配與未見過的詞

3.7.4 記憶網路的實驗方法

3.7.4.1 數據集

3.7.4.2 與其他方法的對比

3.7.4.3 運行時間

3.7.4.4 計算單元層數的作用

3.7.4.5 錯誤分析

3.7.5 記憶網路的應用案例

3.8 膠囊網路(CapsuleNet)

3.8.1 膠囊網路的概念與原理

3.8.2 膠囊網路的結構分析與流程

3.8.3 膠囊網路的演算法

3.8.3.1 輸入向量的矩陣乘法

3.8.3.2 輸入向量的標量加權

3.8.3.3 加權輸入向量之和

3.8.3.4 壓縮

3.8.4 Reconstruction模塊

3.8.5 囊間動態路由演算法

3.8.5.1 囊間動態路由

3.8.5.2 權重更新的直觀例子

3.8.5.3 路由的迭代

3.8.6 膠囊網路的應用


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 AI講堂 的精彩文章:

能否代替「決策樹演算法」?
遷移學習之Domain Adaptation

TAG:AI講堂 |