當前位置:
首頁 > 最新 > BAT機器學習面試1000題系列

BAT機器學習面試1000題系列

76.以下哪些方法不可以直接來對文本分類?

A、Kmeans

B、決策樹

C、支持向量機

D、KNN正確答案: A分類不同於聚類。

@BlackEyes_SGC:A:Kmeans是聚類方法,典型的無監督學習方法。分類是監督學習方法,BCD都是常見的分類方法。

77.已知一組數據的協方差矩陣P,下面關於主分量說法錯誤的是()

A、主分量分析的最佳準則是對一組數據進行按一組正交基分解, 在只取相同數量分量的條件下,以均方誤差計算截尾誤差最小

B、在經主分量分解後,協方差矩陣成為對角矩陣

C、主分量分析就是K-L變換

D、主分量是通過求協方差矩陣的特徵值得到

正確答案: C

@BlackEyes_SGC:K-L變換與PCA變換是不同的概念,PCA的變換矩陣是協方差矩陣,K-L變換的變換矩陣可以有很多種(二階矩陣、協方差矩陣、總類內離散度矩陣等等)。當K-L變換矩陣為協方差矩陣時,等同於PCA。

78.kmeans的複雜度

時間複雜度:O(tKmn),其中,t為迭代次數,K為簇的數目,m為記錄數,n為維數空間複雜度:O((m+K)n),其中,K為簇的數目,m為記錄數,n為維數

79.關於logit 回歸和SVM 不正確的是(A)

A. Logit回歸本質上是一種根據樣本對權值進行極大似然估計的方法,而後驗概率正比於先驗概率和似然函數的乘積。logit僅僅是最大化似然函數,並沒有最大化後驗概率,更談不上最小化後驗概率。A錯誤

B. Logit回歸的輸出就是樣本屬於正類別的幾率,可以計算出概率,正確

C. SVM的目標是找到使得訓練數據儘可能分開且分類間隔最大的超平面,應該屬於結構風險最小化。

D. SVM可以通過正則化係數控制模型的複雜度,避免過擬合。

@BlackEyes_SGC:Logit回歸目標函數是最小化後驗概率,Logit回歸可以用於預測事件發生概率的大小,SVM目標是結構風險最小化,SVM可以有效避免模型過擬合。

80.輸入圖片大小為200×200,依次經過一層卷積(kernel size 5×5,padding 1,stride 2),pooling(kernel size 3×3,padding 0,stride 1),又一層卷積(kernel size 3×3,padding 1,stride 1)之後,輸出特徵圖大小為:

95

有好的見解或者面試題目歡迎在評論區留言,一起交流探討。


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 機器學習 的精彩文章:

關於機器學習的11個開源工具
AIOps智能運維=機器學習+自動化運維
星座分析有科學依據嗎?用大數據和機器學習揭開十二星座的真實面目!
借鑒師生互動模式來訓練機器學習模型
機器學習演算法可近似性的量化評估分析

TAG:機器學習 |