當前位置:
首頁 > 時尚 > 機器學習演算法——隨機森林演算法簡介

機器學習演算法——隨機森林演算法簡介

歡迎各位大哥大姐來到小編的文章,希望小編辛勤的寫作,能給大夥帶來開心和笑容,如果真的如此請關注評論,這樣小編就更加的有信心了。

機器學習演算法——隨機森林演算法簡介,2隨機森林的相關術語

1 .信息熵以及信息增益的概念

當熵越大,不確定性越大,反之越小。對於機器學習中的分類問題而言,熵越大即這個類別的不確定性更大,反之越小。信息增益在決策樹演算法中是用來選擇特徵的指標,信息增益越大,則這個特徵的選擇性越好。

2.決策樹

其中每個內部節點表示一個屬性上的測試,每個分支代表一個測試輸出,每個葉節點代表一種類別。常見的決策樹演算法有C4.5、ID3和CART。下圖給出了一棵決策樹的例子:

3.集成學習

各自獨立地學習和作出預測。這些預測最後結合成單預測,因此優於任何一個單分類的做出預測。隨機森林是集成學習的一個子類,它依靠於決策樹的投票選擇來決定最後的分類結果。

3隨機森林的特點

具有極好的準確率能夠有效地運行在大數據集上能夠處理具有高維特徵的輸入樣本,而且不需要降維能夠評估各個特徵在分類問題上的重要性在生成過程中,能夠獲取到內部生成誤差的一種無偏估計對於預設值問題也能夠獲得很好得結果4 隨機森林的生成

我們需要將輸入樣本輸入到每棵樹中進行分類。打個形象的比喻:森林中召開會議,討論某個動物到底是老鼠還是松鼠,每棵樹都要獨立地發表自己對這個問題的看法,也就是每棵樹都要投票。該動物到底是老鼠還是松鼠,要依據投票情況來確定,獲得票數最多的類別就是森林的分類結果。森林中的每棵樹都是獨立的,99.9%不相關的樹做出的預測結果涵蓋所有的情況,這些預測結果將會彼此抵消。少數優秀的樹的預測結會忽略「噪音」,做出一個好的預測。將若干個弱分類器的分類結果進行投票選擇,從而組成一個強分類器,這就是隨機森林bagging的思想。下圖可以形象地描述這個情況:

文章到此結束了,但是小編跟大家的溝通還遠遠沒有結束,如果有哪位大哥大姐有什麼想說想吐糟的,不妨在下方的留言評論區留下您的痕迹,小編會永遠默默的關注著你,你的每條評論我都會看到也會精心的回復大家,你的關注留言就是小編最有力的動力。

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 每天怎麼搭 的精彩文章:

藝術家在羽毛上作畫,作品真是令人大開眼界
作為汽車大廠,賓士現在也漸漸地在智能汽車的路上越走越遠

TAG:每天怎麼搭 |