當前位置:
首頁 > 最新 > Machine Learning小結

Machine Learning小結

一不小心也發了十幾篇推送了,朋友一直說我發的啥?看不懂……

其實我在總結簡單機器學習的演算法,沒有很高深,只要有高中的數學基礎就能讀懂這些。如果有小夥伴會看我寫的推文,現在應該已經大概了解簡單機器學習演算法是什麼了。

這裡的「大概」,是指如果你沒見過雞,你可能不知道雞是長這樣的:

但是通過看推文,你已經知道雞長這樣了:

機器學習的主要目的是預測,預測一個結局變數,這個變數可能是分類變數,也可能是個連續型的數值變數。在分類問題中,根據訓練集是否人為注釋標籤(lable)可以將機器學習分為監督式學習(Supervised)和非監督式學習(Unsupervised)。說白話就是你需不需要提前告訴模型,哪些個體是好的,哪些個體是不好的,如果是,這個模型就屬於監督式學習了。

最常用的簡單機器學習演算法大概有如下十種:

1、kNN演算法

2、k均值聚類

3、貝葉斯演算法

4、決策樹

5、隨機森林

這個沒有說過,但其實它的原理很好理解,就是建立很多決策樹,然後進行投票選舉,根據少數服從多數的原則,採納多數決策樹的預測。

6、關聯規則

7、線性回歸

8、邏輯回歸

這兩個也沒有說過,是因為我覺得這兩個是統計學的內容,線性回歸通常解決數值變數的預測,logistic回歸是廣義線性模型(glm)的一種,解決分類預測。

9、支持變數機

10、人工神經網路

這兩個演算法也叫黑箱演算法,因為它們太複雜了,你完全解釋不了一個模型是怎樣工作的,所以只關注結果就好了。

大概的工作原理:支持向量機是根據特徵變數將一個觀測投射到一個n維的空間上去,例如一個點A(x,y),它有兩個特徵變數,分別是x和y,這時支持向量機會把它投射到一個二維的平面上,如果有一群這樣的點,可不可以通過畫一條線,將屬性不同的點盡量切割,分到線的不同邊。這裡又分線性可分的情況和線性不可分的情況,最終的目的是計算出這樣一個分割邊界。二維的平面我們很好理解,三維的空間也很好理解,維度再高我們就不是很好理解了,可是演算法能做到。

人工神經網路是機器學習的頂級演算法了,它模擬生物的神經系統,設立不同層數的神經節點,最終產生輸出。通常人工神經網路最直觀的特徵包括三個,分別為層數、每層節點數、節點的激活函數。每個神經網路都有三個基本層——輸入層、輸出層,和中間的隱藏層。如果隱藏層數大於一,那麼就把這個神經網路叫做深度學習網路了,也就是所謂的「深度學習」。它幾乎可以解決所有人工智慧問題,目前很多應用,如自然語言識別、機器視覺、自動駕駛等,均依賴深度學習的發展和實現。

無論是支持向量機還是人工神經網路,其演算法均和線性代數密不可分。由於對線性代數不熟悉,我沒辦法講明白黑箱演算法的具體原理。網上有很多資源,感興趣的朋友可以翻翻。

好了,就總結到這裡了,期待以後,能繼續把這個專題寫下去,總結下去。


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 全球大搜羅 的精彩文章:

不用寫代碼也能開發AI?谷歌發布全新AI服務工具AutoML,將助力ATN更加強大!

TAG:全球大搜羅 |