當前位置:
首頁 > 知識 > 3月27晚8點ISU博士詳解:k均值演算法

3月27晚8點ISU博士詳解:k均值演算法

《深度學習專業班》系列課:3月27晚8點ISU博士詳解:k均值演算法!

《全球人工智慧學院》專註於AI技術人才教育。為AI學習者提供「技術理論+技術實戰相結合的AI技術培訓;學習群+輔導員雙軌制的AI學習輔導;非商業項目+商業項目並行的AI項目開發」。致力於培養出既懂理論,又能實戰的AI技術人才。

《深度學習專業班》邀請名校AI博士帶你從零學習深度學習:從基礎的名詞概念,數學符號、數學公式推導、演算法模型、神經網路模型到全球最新深度學習演算法技術Paper解讀。每周2次直播,全年80次理論+實戰課。(講師直播答疑,學員社群7*24小時交流,助教每天輔導學習,從理論到實踐,只有一個目標:讓你學會!)

直播:每周二、周四 20:00開始,隨時回放

講師:全球名校AI博士+全球名企AI工程師

服務:名師授課+社群交流+助教輔導+線下交流

資料1:演算法相關數學符號表

資料2:AI相關辭彙中英文對照表

資料3:演算法相關辭彙的概念和含義表

1月25日:鄒博(中科院)

1.1 機器學習介紹

1.1.1 機器學習的概念

1.1.2 機器學習的流程

1.1.3 機器學習的分類

1.2 監督學習/非監督/半監督

1.2.1 監督學習的概念和含義

1.2.2 監督學習的模型和原理

1.2.3 監督學習的主要演算法

1.2.4 監督學習的主要應用

1.2.5 非監督學習與和半監督學習

1.3 強化學習

1.3.1 強化學習的概念和含義

1.3.2 強化學習的模型和原理

1.3.3 強化學習的主要演算法

1.3.4 強化學習的主要應用

1.4 遷移學習

1.4.1 遷移學習的概念和含義

1.4.2 遷移學習的分類

1.4.3 遷移學習的主要演算法

1.4.4 遷移學習的主要應用

1.5 模型評估與選擇方法

1.5.1 經驗誤差和過擬合

1.5.2 評估的主要方法

1.5.3 性能度量和比較檢驗

1.5.4 偏差和方差

2月1日:歐陽若飛(NUS博士)

2.1 線性回歸

2.1.1 一元線性回歸

2.1.2 多元線性回歸

2.1.3 帶正則項的線性回歸

2.1.4 帶核函數的線性回歸

2.1.5 線性回歸的實例分析

2月6日陳興委(國科大博士)

2.2 邏輯回歸/softmax回歸

2.2.1 邏輯回歸的概念和分布介紹

2.2.2 邏輯回歸的模型和參數估計

2.2.3 邏輯回歸的損失函數和優化方法

2.2.3 邏輯回歸的正則化

2.2.4 softmax回歸的介紹

2.2.5 邏輯回歸的實例分析

2月8日:鄧博文(Stanford 博士)

2.3 決策樹

2.3.1 決策樹思想

2.3.2 決策樹演算法

2.3.3 決策樹實例

2.3.4 決策樹延伸

3月6日:王老師(TAMU博士)

2.4 隨機森林

2.4.1 隨機森林與決策樹的關係

2.4.2 隨機森林的特點

2.4.3 隨機森林的構建生成

2.4.4 隨機森林的工作原理

2.4.5 隨機森林的評估

2.4.6 隨機森林的應用

3月8日:高老師(ISU 博士)

2.5 支持向量機

2.5.1 支持向量機的概念和類型

2.5.2 線性可分支持向量機與硬間隔最大化

2.5.3 線性支持向量機與軟間隔最大化

2.5.4 非線性支持向量機與核函數

2.5.5 序列最小最優化演算法

2.5.6 支持向量機的應用

3月13日:歐陽若飛(NUS博士)

2.6 集成演算法

2.6.1 個體與集成

2.6.2 Boosting介紹

2.6.2.1Adaboost

2.6.2.2GBDT

2.6.2.3XGBoost

2.6.3 Bagging介紹

2.6.4 結合的策略

2.6.5 多樣性

2.6.6 集成演算法的應用

3月15日:歐陽若飛(NUS博士)

2.7 Gradient Boost

2.7.1 Gradient Boost的概念與特點

2.7.2 Gradient Boost的演算法流程

2.7.3 Gradient tree boosting

2.7.4 Gradient Boost正則化

2.7.5 Gradient Boost 的應用

3月20日:陳興委(國科大博士)

2.8 樸素貝葉斯

2.8.1 樸素貝葉斯相的關數學知識

2.8.2 樸素貝葉斯的模型

2.8.3 樸素貝葉斯的推斷過程

2.8.4 樸素貝葉斯的參數估計

2.8.5 樸素貝葉斯的演算法流程

2.8.6 樸素貝葉斯的優缺點分析

2.8.7 樸素貝葉斯的應用

3月22日:陳興委(國科大博士)

2.9 k最近鄰演算法

2.9.1 k最近鄰演算法概念和特點介紹

2.9.2 k最近鄰演算法流程

2.9.3 k最近鄰演算法模型

2.9.4 k最近鄰演算法距離度量

2.9.5 k最近鄰演算法k值的選擇

2.9.6 k最近鄰演算法分類決策規則

2.9.7 k最近鄰演算法實現:kd樹

2.9.8 k最近鄰演算法應用

3月27日:高老師(ISU 博士)

2.10 k均值演算法

2.10.1 k均值演算法概念、流程和特點介紹

2.10.2 k值的選擇方法

2.10.3 k均值演算法質心的選擇

2.10.4 k均值演算法距離的度量

2.10.5 k均值演算法質心的計算

2.10.6 k均值演算法評價標準和停止條件

2.10.7 空聚類的處理

2.10.8 k均值演算法的應用和實現

2.10.9 二分K均值演算法

3月29日:高老師(ISU 博士)

2.11 降維演算法

2.11.1 降維演算法的概念與介紹

2.11.2 降維的出發角度

2.11.3 典型的降維方法與流程

2.11.3.1主成分分析PCA

2.11.3.2多維縮放(MDS)

2.11.3.3線性判別分析(LDA)

2.11.3.4等度量映射(Isomap)

2.11.3.5局部線性嵌入(LLE)

2.11.3.6t-SNE

2.11.3.7Deep Autoencoder Networks

2.11.4 降維演算法的應用

2.12 遺傳演算法

2.12.1 遺傳演算法的概念和特點介紹

2.12.2 遺傳演算法的基本原理與流程

2.12.3 基本遺傳演算法和演算法的改進

2.12.4遺傳演算法中的各種函數

2.12.5 遺傳演算法的實例應用

2.13 隱性馬爾科夫模型

2.13.1 隱性馬爾科夫模型的概念與基本問題

2.13.2 隱形馬爾科夫模型的概率計算

2.13.3 隱性馬爾科夫的學習演算法

2.13.4 隱性馬爾科夫的預測演算法

2.14 高斯判別演算法

2.14.1 高斯判別演算法的概念與特點

2.14.2 高斯判別演算法的推導過程

2.14.3 演算法分析

2.14.4 高斯判別分析模型

2.14.5 高斯判別演算法的應用實現

2.15 優化演算法

2.15.1 梯度下降

2.15.2 牛頓動量

2.15.3 Adagrad

2.15.4 RMSProp

2.15.5 Adadelta

2.15.6 Adam

2.16DBSCAN

2.16.1 DBSCAN的概念與原理

2.16.2 DBSCAN的流程

2.16.3 DBSCAN參數設置

2.16.4 DBSCAN演算法描述

2.16.5 DBSCAN演算法的聚類過程

2.16.6 演算法偽代碼

2.16.7 DBSCAN的應用

2.17DensityPeak

2.17.1 Density Peak的概念與特點

2.17.2 Density Peak演算法思想

2.17.3 Density Peak聚類過程

2.17.4 聚類中心的選擇

2.17.5 可靠性度量

2.17.6 Density Peak的實驗效果

2.17.7 Density Peak的應用

2.18Hierarchical Clustering

2.18.1 層次聚類的概念與原理

2.18.2 層次聚類的步驟流程

2.18.3 創建聚類樹的兩種方法

2.18.3.1 自下而上合併

2.18.3.2 自上而下分裂

2.18.4 層次聚類的演算法描述

2.18.5 相似性度量

2.18.6 層次聚類樹狀圖

2.18.7 層次聚類的應用

2.19Spectral Clustering

2.19.1 譜聚類的概念和原理分析

2.19.2 譜聚類的演算法流程

2.19.2.1 相似度矩陣S的構建

2.19.2.2 相似度圖G的構建

2.19.2.3 拉普拉斯矩陣

2.19.2.4 無向圖的切割

2.19.2.5 生成最小的特徵值和特徵向量

2.19.2.6 用特徵向量進行聚類

2.19.3 譜聚類與K均值演算法的關係

2.19.4 譜聚類代碼分析

2.19.5 譜聚類的應用

3.1 神經網路和深度學習介紹

3.1.1 神經網路的概念、含義

3.1.2 深度學習的概念,流程、評估指標和分類

3.13 神經網路與深度學習的關係

3.2 每種神經網路的網路結構、特點和用途等介紹

3.2.1 感知機(P)

3.2.2 前饋網路(FF)

3.2.3 徑向基網路(RBF)

3.2.4 深度前饋(DFF)

3.2.5 自動編碼網路(AE)

3.2.6 變分自編碼器 (VAE)

3.2.7 去噪自動編碼(DAE)

3.2.8 稀疏的自動編碼(SAE)

3.2.9 馬爾可夫鏈(MC)

3.2.10霍普菲爾網路(HN)

3.2.11 玻爾茲曼機(BM)

3.2.12 受限玻爾茲曼機(RBM)

3.2.13 深度置信(信念)網路(DBN)

3.2.14 神經圖靈機(NTM)

3.2.15 深度殘差網路(DRN)

3.2.16 回聲狀態網路(ESN)

3.2.17 極限學習機(ELM)

3.2.18 液態狀態機 (LSM)

3.2.19 反向傳播 (BP)

3.2.20 Kohonen網路(KN)

3.3深度神經網路(DNN)

3.3.1 深度神經網路結構和前向傳播

3.3.2 深度神經網路的反向傳播演算法

3.3.3 深度神經網路的損失函數和激活函數選擇

3.3.4 深度神經網路的正則化

3.4卷積神經網路(CNN

3.4.1 卷積神經網路的模型和原理

3.4.2 卷積神經網路的正向傳播

3.4.3 卷積神經網路的反向傳播

3.4.4 RCNN/Fast-RCNN/Faster-RCNN/MaskRCNN

3.4.5 卷積神經網路的其他變體:DCNN/DN/DCIGN

3.4.6 CNN的實際應用

3.5循環神經網路RNN

3.5.1 循環神經網路的模型和原理

3.5.2 循環神經網路的前向反向傳播

3.5.3 LSTM模型和前向反向傳播

3.5.4 門控循環單元(GRU)

3.5.5 循環神經網路其他變種

3.5.6 RNN的實際應用

3.6生成式對抗網路(GAN)

3.6.1 生成式對抗網路的模型和原理

3.6.2 Conditional GAN

3.6.3 DCGAN

3.6.4 WGAN

3.6.5 BEGAN

3.6.5 EBGAN

3.6.6 LS-GAN

3.6.7 cycle-GAN

3.6.8 Stack-GAN

3.6.9 InfoGAN

3.6.10 GAN的實際應用

3.7 記憶網路(MemNN)

3.7.1 記憶網路的概念和原理分析

3.7.2 記憶網路的流程與框架

3.7.3 實現文本的記憶網路

3.7.3.1 基本模型

3.7.3.2 一串的詞作為輸入

3.7.3.3 高效率的哈希內存

3.7.3.4 寫入時間的模型化

3.7.3.5 未見過的詞的模型化

3.7.3.6 準確匹配與未見過的詞

3.7.4 記憶網路的實驗方法

3.7.4.1 數據集

3.7.4.2 與其他方法的對比

3.7.4.3 運行時間

3.7.4.4 計算單元層數的作用

3.7.4.5 錯誤分析

3.7.5 記憶網路的應用案例

3.8 膠囊網路(CapsuleNet)

3.8.1 膠囊網路的概念與原理

3.8.2 膠囊網路的結構分析與流程

3.8.3 膠囊網路的演算法

3.8.3.1 輸入向量的矩陣乘法

3.8.3.2 輸入向量的標量加權

3.8.3.3 加權輸入向量之和

3.8.3.4 壓縮3.8.4 Reconstruction模塊

3.8.5 囊間動態路由演算法

3.8.5.1 囊間動態路由

3.8.5.2 權重更新的直觀例子

3.8.5.3 路由的迭代

3.8.6 膠囊網路的應用


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 AI講堂 的精彩文章:

3月20日20點 中國科學院博士開講!
分分鐘叫你用Python創建一個區塊鏈!

TAG:AI講堂 |