當前位置:
首頁 > 知識 > 從零開始學習AI,每周2次直播!

從零開始學習AI,每周2次直播!

2017年伴隨人工智慧的火爆,深度學習成為了軟體工程師、科研人員、碩士研究生、以及部分本科生追捧和學習的內容。然而,對於大部分人來說,數學幾乎全部還給了老師——忘得差不多了;無數的專業辭彙和數學公式成為了很多人學習的一大障礙,普通去調用別人的api介面沒有問題,可一道核心部分就看的雲里霧裡。

針對這種情況,《全球人工智慧學院》邀請中科院、清華、斯坦福、卡內基梅隆、伊利諾伊香檳分校等十幾所全球頂級名校的AI科學家共同打造《深度學習專業班》——:從基礎的名詞概念,數學符號、數學公式推導、演算法模型、神經網路模型到全球最新深度學習演算法技術Paper解讀。每周2次直播(講師直播答疑,學員社群7*24小時交流,助教督促學習,還有不定期的線下交流活動,只有一個目標:讓你學會!)

直播:每周二、周四 20:00開始,隨時回放

講師:全球名校AI博士+全球名企AI工程師

服務:講師答疑+學員社群+助教督學+線下交流

資料1:演算法相關數學符號表

資料2:AI相關辭彙中英文對照表

資料3:演算法相關辭彙的概念和含義表

1月25日:鄒博(中科院)

1.1 機器學習介紹

1.1.1 機器學習的概念

1.1.2 機器學習的流程

1.1.3 機器學習的分類

1.2 監督學習/非監督/半監督

1.2.1 監督學習的概念和含義

1.2.2 監督學習的模型和原理

1.2.3 監督學習的主要演算法

1.2.4 監督學習的主要應用

1.2.5 非監督學習與和半監督學習

1.3 強化學習

1.3.1 強化學習的概念和含義

1.3.2 強化學習的模型和原理

1.3.3 強化學習的主要演算法

1.3.4 強化學習的主要應用

1.4 遷移學習

1.4.1 遷移學習的概念和含義

1.4.2 遷移學習的模型和原理

1.4.3 遷移學習的主要演算法

1.4.4 遷移學習的主要應用

1.5 模型評估與選擇方法

1.5.1 經驗誤差和過擬合

1.5.2 評估的主要方法

1.5.3 性能度量和比較檢驗

1.5.4 偏差和方差

2月1日:歐陽若飛(NUS博士)

2.1 線性回歸

2.1.1 一元線性回歸

2.1.2 多元線性回歸

2.1.3 帶正則項的線性回歸

2.1.4 帶核函數的線性回歸

2.1.5 線性回歸的實例分析

2月6日陳興委(國科大博士)

2.2 邏輯回歸/softmax回歸

2.2.1 邏輯回歸的概念和分布介紹

2.2.2 二項邏輯回歸模型和參數估計

2.2.3 多項邏輯回歸模型和參數估計

2.2.4 邏輯回歸的實例分析

2月8日:鄧博文(斯坦福大學)

2.3 決策樹

2.3.1 決策樹的概念

2.3.2 決策樹的模型介紹和學習

2.3.3 決策樹的特徵選擇

2.3.4 決策樹的生成

2.3.5 決策樹的剪枝處理

2.3.6 決策樹的連續值和缺失值處理

2.3.7 常見決策樹的實例分析

2.4 隨機森林

2.4.1 隨機森林與決策樹的關係

2.4.2 隨機森林的特點

2.4.3 隨機森林的構建生成

2.4.4 隨機森林的工作原理

2.4.5 隨機森林的評估

2.4.6 隨機森林的應用

2.5 集成演算法

2.5.1 個體與集成

2.5.2 Boosting介紹

2.5.2.1Adaboost

2.5.2.2GBDT

2.5.2.3XGBoost

2.5.3 Bagging介紹

2.5.4 結合的策略

2.5.5 多樣性

2.5.6 集成演算法的應用

2.6 支持向量機

2.6.1 支持向量機的概念和類型

2.6.2 線性可分支持向量機與硬間隔最大化

2.6.3 線性支持向量機與軟間隔最大化

2.6.4 非線性支持向量機與核函數

2.6.5 序列最小最優化演算法

2.6.6 支持向量機的應用

2.7 樸素貝葉斯

2.7.1 樸素貝葉斯相的關數學知識

2.7.2 樸素貝葉斯的模型

2.7.3 樸素貝葉斯的推斷過程

2.7.4 樸素貝葉斯的參數估計

2.7.5 樸素貝葉斯的演算法流程

2.7.6 樸素貝葉斯的優缺點分析

2.7.7 樸素貝葉斯的應用

2.8 k最近鄰演算法

2.8.1 k最近鄰演算法概念和特點介紹

2.8.2 k最近鄰演算法流程

2.8.3 k最近鄰演算法模型

2.8.4 k最近鄰演算法距離度量

2.8.5 k最近鄰演算法k值的選擇

2.8.6 k最近鄰演算法分類決策規則

2.8.7 k最近鄰演算法實現:kd樹

2.8.8 k最近鄰演算法應用

2.9 k均值演算法

2.9.1 k均值演算法概念、流程和特點介紹

2.9.2 k值的選擇方法

2.9.3 k均值演算法質心的選擇

2.9.4 k均值演算法距離的度量

2.9.5 k均值演算法質心的計算

2.9.6 k均值演算法評價標準和停止條件

2.9.7 空聚類的處理

2.9.8 k均值演算法的應用和實現

2.9.9 二分K均值演算法

2.10 遺傳演算法

2.10.1遺傳演算法的概念和特點介紹

2.10.2遺傳演算法的基本原理與流程

2.10.3基本遺傳演算法和演算法的改進

2.10.4遺傳演算法中的各種函數

2.10.5遺傳演算法的實例應用

2.11 降維演算法

2.11.1 降維演算法的概念與介紹

2.11.2降維的出發角度

2.11.3典型的降維方法與流程

2.11.3.1主成分分析PCA

2.11.3.2多維縮放(MDS)

2.11.3.3線性判別分析(LDA)

2.11.3.4等度量映射(Isomap)

2.11.3.5局部線性嵌入(LLE)

2.11.3.6t-SNE

2.11.3.7Deep Autoencoder Networks

2.11.4降維演算法的應用

2.12 隱性馬爾科夫模型

2.12.1 隱性馬爾科夫模型的概念與基本問題

2.12.2 隱形馬爾科夫模型的概率計算

2.12.3隱性馬爾科夫的學習演算法

2.12.4隱性馬爾科夫的預測演算法

2.13 Gradient Boost

2.13.1 Gradient Boost的概念與特點

2.13.2 Gradient Boost的演算法流程

2.13.3Gradient tree boosting

2.13.4 Gradient Boost正則化

2.13.5 Gradient Boost的應用

2.14 高斯判別演算法

2.14.1高斯判別演算法的概念與特點

2.14.2 高斯判別演算法的推導過程

2.14.3 演算法分析

2.14.4 高斯判別分析模型

2.14.5高斯判別演算法的應用實現

2.15 優化演算法

2.15.1 梯度下降

2.15.2 牛頓動量

2.15.3 Adagrad

2.15.4 RMSProp

2.15.5 Adadelta

2.15.6 Adam

2.16DBSCAN

2.16.1DBSCAN的概念與原理

2.16.2DBSCAN的流程

2.16.3 DBSCAN參數設置

2.16.4 DBSCAN演算法描述

2.16.5 DBSCAN演算法的聚類過程

2.16.6 演算法偽代碼

2.16.7DBSCAN的應用

2.17DensityPeak

2.17.1DensityPeak的概念與特點

2.17.2 Density Peak演算法思想

2.17.3 Density Peak聚類過程

2.17.4 聚類中心的選擇

2.17.5 可靠性度量

2.17.6DensityPeak的實驗效果

2.17.7DensityPeak的應用

2.18Hierarchical Clustering

2.18.1 層次聚類的概念與原理

2.18.2 層次聚類的步驟流程

2.18.3 創建聚類樹的兩種方法

2.18.3.1 自下而上合併

2.18.3.2 自上而下分裂

2.18.4 層次聚類的演算法描述

2.18.5 相似性度量

2.18.6 層次聚類樹狀圖

2.18.7 層次聚類的應用

2.19Spectral Clustering

2.19.1 譜聚類的概念和原理分析

2.19.2 譜聚類的演算法流程

2.19.2.1 相似度矩陣S的構建

2.19.2.2 相似度圖G的構建

2.19.2.3 拉普拉斯矩陣

2.19.2.4 無向圖的切割

2.19.2.5生成最小的特徵值和特徵向量

2.19.2.6用特徵向量進行聚類

2.19.3 譜聚類與K均值演算法的關係

2.19.4 譜聚類代碼分析

2.19.5 譜聚類的應用

3.1 神經網路和深度學習介紹

3.1.1 神經網路的概念、含義

3.1.2 深度學習的概念,流程、評估指標和分類

3.13神經網路與深度學習的關係

3.2 每種神經網路的網路結構、特點和用途等介紹

3.2.1 感知機(P)

3.2.2 前饋網路(FF)

3.2.3 徑向基網路(RBF)

3.2.4 深度前饋(DFF)

3.2.5 自動編碼網路(AE)

3.2.6 變分自編碼器 (VAE)

3.2.7 去噪自動編碼(DAE)

3.2.8 稀疏的自動編碼(SAE)

3.2.9 馬爾可夫鏈(MC)

3.2.10霍普菲爾網路(HN)

3.2.11 玻爾茲曼機(BM)

3.2.12 受限玻爾茲曼機(RBM)

3.2.13 深度置信(信念)網路(DBN)

3.2.14 神經圖靈機(NTM)

3.2.15 深度殘差網路(DRN)

3.2.16 回聲狀態網路(ESN)

3.2.17 極限學習機(ELM)

3.2.18 液態狀態機 (LSM)

3.2.19 反向傳播 (BP)

3.2.20 Kohonen網路(KN)

3.3深度神經網路(DNN)

3.3.1 深度神經網路結構和前向傳播

3.3.2 深度神經網路的反向傳播演算法

3.3.3 深度神經網路的損失函數和激活函數選擇

3.3.4 深度神經網路的正則化

3.4卷積神經網路(CNN

3.4.1 卷積神經網路的模型和原理

3.4.2 卷積神經網路的正向傳播

3.4.3 卷積神經網路的反向傳播

3.4.4 RCNN/Fast-RCNN/Faster-RCNN/MaskRCNN

3.4.5 卷積神經網路的其他變體:DCNN/DN/DCIGN

3.4.6 CNN的實際應用

3.5循環神經網路RNN

3.5.1 循環神經網路的模型和原理

3.5.2 循環神經網路的前向反向傳播

3.5.3 LSTM模型和前向反向傳播

3.5.4 門控循環單元(GRU)

3.5.5 循環神經網路其他變種

3.5.6 RNN的實際應用

3.6生成式對抗網路(GAN)

3.6.1 生成式對抗網路的模型和原理

3.6.2 Conditional GAN

3.6.3 DCGAN

3.6.4 WGAN

3.6.5 BEGAN

3.6.5 EBGAN

3.6.6 LS-GAN

3.6.7 cycle-GAN

3.6.8 Stack-GAN

3.6.9 InfoGAN

3.6.10 GAN的實際應用

3.7 記憶網路(MemNN)

3.7.1記憶網路的概念和原理分析

3.7.2記憶網路的流程與框架

3.7.3實現文本的記憶網路

3.7.3.1基本模型

3.7.3.2一串的詞作為輸入

3.7.3.3高效率的哈希內存

3.7.3.4寫入時間的模型化

3.7.3.5未見過的詞的模型化

3.7.3.6準確匹配與未見過的詞

3.7.4記憶網路的實驗方法

3.7.4.1數據集

3.7.4.2與其他方法的對比

3.7.4.3運行時間

3.7.4.4計算單元層數的作用

3.7.4.5錯誤分析

3.7.5記憶網路的應用案例

3.8 膠囊網路(CapsuleNet)

3.8.1膠囊網路的概念與原理

3.8.2膠囊網路的結構分析與流程

3.8.3膠囊網路的演算法

3.8.3.1輸入向量的矩陣乘法

3.8.3.2輸入向量的標量加權

3.8.3.3加權輸入向量之和

3.8.3.4壓縮3.8.4 Reconstruction模塊

3.8.5囊間動態路由演算法

3.8.5.1囊間動態路由

3.8.5.2權重更新的直觀例子

3.8.5.3路由的迭代

3.8.6膠囊網路的應用

......課程內容將持續補充和更新最新技術


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 AI講堂 的精彩文章:

機器學習新手必學10大演算法指南

TAG:AI講堂 |