當前位置:
首頁 > 知識 > 機器學習怎麼從入門到不放棄!

機器學習怎麼從入門到不放棄!

2017年人工智慧就已經列入了國務院的人工智慧發展規劃中,人工智慧將成為推動中國發展的新生科技力量,並在未來扮演著越來越重要的角色,在這一背景下,機器學習會慢慢成為一個程序員必備的底層能力。

對於想要了解或從事AI行業工作的小夥伴們來說,能夠快速、深入的掌握機器學習相關知識顯得尤為重要,小編給大家整理機器學習的學習方法。

機器學習學習方法

如何去學,或者說如何高效的學以及學習的步驟和側重點非常重要。

1、切勿掉入書山中,實踐理論結合重要

很多人可能會一頭扎進書山中埋頭苦讀,讀完一本接著一本最後發現什麼都懂點什麼又都沒懂,這樣效率是很低的。在IT界,實踐才能學到東西,不要一直看書,可以邊看邊試試寫點代碼,實現個小公式,小演算法,這樣進步快一些。

2、採取並行學習法而非串列

機器學習怎麼從入門到不放棄!

這幅圖可以作為學習的基本流程,但是未必需要前面具備才往後進行,可以一邊學基礎,一邊寫代碼,一邊還可以做比賽,這樣前期會痛苦一些,但在後面的學習過程中,速度會很快。

3、建立知識框架,修補知識漏洞

機器學習怎麼從入門到不放棄!

上面這幅圖是是sklearn的機器學習演算法筆記,你可以在學習中去建立類似的筆記,有助於建立起整個學習框架,對於不懂得,再不斷從細節去學。

4、找到適合你的課程,跟著從頭到尾學

如果你是上班族或者沒有專業的老師給你講這門課,那麼報一門適合你的課程從頭到尾跟著學就非常重要了,不要過於相信你的自制力,沒有人和你一起學,你學了很久也看不到進步,慢慢興趣就沒了,所以找到能從頭到尾給你講的課程也很重要,這裡,我想推薦一門《機器學習》給你。

請相信我,這是一堂性價比爆炸的課程,超值到你如果不買,會後悔的那種。

《機器學習》全新升級版

原價 ¥ 899.00

已超300人報名

已至底價 ¥ 399.00

主講老師

秦曾昌

英國布里斯托(Bristol)大學碩士、博士。美國加州大學伯克利分校(UC Berkeley)博士後、牛津 (Oxford) 大學與卡內基梅隆大學 (CMU) 訪問學者。目前主要研究方向為數據挖掘、跨媒體檢索與自然語言理解。出版英文專著1本(Springer出版)、編輯論文集1本和專業論文或章節 (Book Chapter) 90餘篇。同時在IT工業界做機器學習、大數據、人工智慧等專業技術諮詢工作。

升級特點

1. 本課程的教學重心是從數學層面理解並掌握推導經典的機器學習演算法,從歷史到細節深入了解機器學習的基本思想和各種演算法的具體思路與方法。

2. 強化數學、概率論、數理統計的基礎知識,夯實機器學習的基礎必備知識。

3. 本課程將提供嚴謹的數學推導過程文檔,幫助學員更好地掌握演算法推導(面試必備)

4. 課程中講設置隨堂測驗環節,幫助學員在課中鞏固和理解重要知識點。

課程大綱

第一課:機器學習的數學基礎

1. 機器學習的數學基礎

a. 函數與數據的泛化

b. 推理與歸納 (Deduction and Induction)

2. 線性代數(Linear Algebra)

a. 向量與矩陣 (Vector and Matrix)

b. 特徵值與特徵向量

c. 向量與高維空間

d. 特徵向量(Feature Vector)

3. 概率與統計(Probability and Statistics)

a. 條件概率與經典問題 (Conditional Probability)

b. 邊緣概率 (Marginal Probability)

4. 作業/實踐: 財寶問題的概率計算程序

第二課:機器學習的數學基礎

1. 統計推理(Statistical Inference)

a. 貝葉斯原理與推理 (Bayesian Theorem)

b. 極大似然估計 (Maximum Likelihood)

c. 主觀概率(Subjective Probability)

d. 最大後延概率(MAP)

2. 隨機變數(Random Variable)

a. 獨立與相關 (Independence)

b. 均值與方差 (Mean and Variance)

c. 協方差 (Co-Variance)

3. 概率分布(Probability Distributions)

4. 中心極限定理(Central Limit Theorem)

5. 作業/實踐: 概率分布採樣與不同隨機變數之間協方差計算

第三課:機器學習的數學基礎

1. 梯度下降(Gradient Descent)

a. 導數與梯度(Derivative and Gradient)

b. 隨機梯度下降(SGD)

c. 牛頓方法(Newton"s Method)

2. 凸函數(Convex Function)

a. Jensen不等式(Jensen"s Inequality)

b. 拉格朗日乘子(Lagrange Multiplier)

3. 作業/實踐: 利用牛頓方法求解給定的方程

第四課:機器學習的哲學(Philosophy of ML)

1. 演算法的科學(Science of Algorithms)

a. 輸入與輸出的神話(Mystery of I/O)

b. 奧卡姆剃刀(Occam』s Razor)

2. 維數的詛咒(Curse of Dimensionality)

a. 高維的幾何特性 (Geometric Properity )

b. 高維空間流形(High-dimensional Manifold)

3. 機器學習與人工智慧(Machine learning and AI)

4. 機器學習的範式(Paradigms of ML)

第五課:經典機器學習模型(Classical ML Models)

1. 樣本學習(Case-Based Reasoning)

a. K-近鄰(K-Nearest Neighbors)

b. K-近鄰預測(KNN for Prediction)

c. 距離與測度(Distance and Metric)

2. 樸素貝葉斯(Na?ve Bayes Classifier)

a. 條件獨立(Conditional Independence)

b. 分類(Naive Bayes for Classification)

3. 作業/實踐:垃圾郵件分類的案例

第六課:經典機器學習模型(Classical ML Models)

1. 決策樹(Decision Tree Learning)

a. 資訊理論與概率

b. 信息熵(Information Entropy)

c. ID3

2. 預測樹(CART)

a. Gini指標(Gini Index)

b. 決策樹與規則(DT and Rule Learning)

3. 作業/實踐:決策樹分類實驗

第七課:經典機器學習模型(Classical ML Models)

1. 集成學習(Ensemble learning)

a. Bagging and Boosting

b. AdaBoost

c. 誤差分解(Bias-Variance Decomposition)

d. 隨機森林(Boosting and Random Forest)

2. 模型評估(Model Evaluation)

a. 交叉驗證(Cross-Validation)

b. ROC (Receiver Operating Characteristics)

c. Cost-Sensitive Learning

3. 作業/實踐:隨機森林與決策樹分類實驗的比較

第八課:線性模型(Linear Models)

1. 線性模型(Linear Models)

a. 線性擬合(Linear Regression)

2. 最小二乘法(LMS)

b. 線性分類器(Linear Classifier)

3. 感知器(Perceptron)

4. 對數幾率回歸(Logistic Regression)

5. 線性模型的概率解釋 (Probabilistic Interpretation)

6. 作業/實踐:對數幾率回歸的文本情感分析中應用

第九課:線性模型(Linear Models)

1. 線性判別分析 (Linear Discrimination Analysis)

2. 約束線性模型 (Linear Model with Regularization)

a. LASSO

b. Ridge Regression

3. 稀疏表示與字典學習

a. Sparse Representation & Coding

b. Dictionary Learning

第十課:核方法(Kernel Methods)

1. 支持向量機SVM(Support Vector Machines)

a. VC-維(VC-Dimension)

b. 最大間距(Maximum Margin)

c. 支撐向量(Support Vectors)

2. 作業/實踐:SVM不同核函數在實際分類中比較

第十一課:核方法(Kernel Methods)

1. 對偶拉格朗日乘子

2. KKT條件(KKT Conditions)

3. Support Vector Regression (SVR)

4. 核方法(Kernel Methods)

第十二課:統計學習(Statistical Learning)

1. 判別模型與生成模型

a. 隱含變數(Latent Variable)

2. 混合模型(Mixture Model)

a. 三枚硬幣問題(3-Coin Problem)

b. 高斯混合模型(Gaussian Mixture Model)

3. EM演算法(Expectation Maximization)

a. 期望最大(Expectation Maximization)

b. 混合模型的EM演算法(EM for Mixture Models)

c. Jensen 不等式 (Jensen"s Inequality)

d. EM演算法推導與性能 (EM Algorithm)

第十三課:統計學習(Statistical Learning)

1. 隱馬可夫模型(Hidden Markov Models)

a. 動態混合模型(Dynamic Mixture Model)

b. 維特比演算法(Viterbi Algorithm)

c. 演算法推導 (Algorithm)

2. 條件隨機場(Conditional Random Field)

第十四課:統計學習(Statistical Learning)

1. 層次圖模型(Hierarchical Bayesian Model)

a. 概率圖模型 (Graphical Model)

b. 從隱含語義模型到p-LSA (From LSA to P-LSA)

c. Dirichlet 分布與特點(Dirichlet Distribution)

d. 對偶分布(Conjugate Distribution)

第十五課:統計學習(Statistical Learning)

1. 主題模型(Topic Model – LDA)

a. Latent Dirichlet Allocation

b. 文本分類(LDA for Text Classification)

2. 中文主題模型(Topic Modeling for Chinese)

3. 其他主題模型(Other Topic Variables)

第十六課:無監督學習(Unsupervised Learning)

1. K-均值演算法(K-Means)

a. 核密度估計(Kernel Density Estimation)

b. 層次聚類(Hierarchical Clustering)

2. 蒙特卡洛(Monte Carlo)

a. 蒙特卡洛樹搜索(Monte Carol Tree Search)

b. MCMC(Markov Chain Monte Carlo)

c. Gibbs Sampling

第十七課:流形學習(Manifold Learning)

1. 主成分分析(PCA)

a. PCA and ICA

2. 低維嵌入(Low-Dimensional Embedding)

a. 等度量映射(Isomap)

b. 局部線性嵌入(Locally Linear Embedding)

第十八課:概念學習(Concept Learning)

1. 概念學習(Concept Learning)

a. 經典概念學習

b. One-Short概念學習

2. 高斯過程學習(Gaussian Process for ML)

c. Dirichlet Process

第十九課:強化學習(Reinforcement Learning)

1. 獎賞與懲罰(Reward and Penalty)

a. 狀態空間 (State-Space Model)

b. Q-學習演算法 (Q-Learning)

2. 路徑規劃 (Path Planning)

3. 遊戲人工智慧 (Game AI)

4. 作業/實踐:小鳥飛行遊戲的自動學習演算法

第二十課:神經網路

1. 多層神經網路

a. 非線性映射(Nonlinear Mapping)

b. 反向傳播(Back-propagation)

2. 自動編碼器(Auto-Encoder)

報名,諮詢,查看課程,請點擊【閱讀原文】

↓↓↓

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 Python部落 的精彩文章:

PacVim:一個用於學習Vim的命令行遊戲
Vim 8.1發布:支持在 Vim 窗口中運行終端

TAG:Python部落 |