BAT機器學習面試1000題(466~470題)

點擊上方  

?

   藍字關注七月在線實驗室

BAT機器學習面試1000題(466~470題)

466題

以下哪些方法不可以直接來對文本分類?

A、Kmeans

B、決策樹

C、支持向量機

D、KNN

點擊下方空白區域查看答案▼

正確答案是:A

解析:

Kmeans是聚類方法,典型的無監督學習方法。分類是監督學習方法,BCD都是常見的分類方法。

467題

已知一組數據的協方差矩陣P,下面關於主分量說法錯誤的是()

A、主分量分析的最佳準則是對一組數據進行按一組正交基分解, 在只取相同數量分量的條件下,以均方誤差計算截尾誤差最小

B、在經主分量分解後,協方差矩陣成為對角矩陣

C、主分量分析就是K-L變換

D、主分量是通過求協方差矩陣的特徵值得到

點擊下方空白區域查看答案 ▼

正確答案是:C

解析:K-L變換與PCA變換是不同的概念,PCA的變換矩陣是協方差矩陣,K-L變換的變換矩陣可以有很多種(二階矩陣、協方差矩陣、總類內離散度矩陣等等)。當K-L變換矩陣為協方差矩陣時,等同於PCA。解析參考自:@BlackEyes_SGC

468題

關於logit 回歸和SVM 不正確的是( )

A、Logit回歸本質上是一種根據樣本對權值進行極大似然估計的方法,而後驗概率正比於先驗概率和似然函數的乘積。logit僅僅是最大化似然函數,並沒有最大化後驗概率,更談不上最小化後驗概率。

B、Logit回歸的輸出就是樣本屬於正類別的幾率,可以計算出概率。

C、SVM的目標是找到使得訓練數據儘可能分開且分類間隔最大的超平面,應該屬於結構風險最小化。

D、SVM可以通過正則化係數控制模型的複雜度,避免過擬合。

點擊下方空白區域查看答案▼

正確答案是:A

解析:

Logit回歸目標函數是最小化後驗概率,Logit回歸可以用於預測事件發生概率的大小,SVM目標是結構風險最小化,SVM可以有效避免模型過擬合。

469題

以下不屬於影響聚類演算法結果的主要因素有()

A、已知類別的樣本質量

B、分類準則

C、特徵選取

D、模式相似性測度

點擊下方空白區域查看答案▼

正確答案是:A

解析:

都已知了,就不必再進行聚類了。

470題

模式識別中,不屬於馬式距離較之於歐式距離的優點的是( )

A、平移不變性

B、尺度不變性

C、考慮了模式的分布

點擊下方空白區域查看答案 ▼

正確答案是:A

題目來源

:七月在線官網(https://www.julyedu.com/)——面試題庫——筆試練習——機器學習

今日推薦

【機器學習集訓營第六期】

火熱報名中

三個月挑戰年薪四十萬,甚至更高薪~

9月開始,BAT等一線公司

每月定期來集訓營現場招人面試

併當場給予招聘結果

這麼好的機會,還在等什麼

報名即送

《機器學習工程師 第八期》

《深度學習 第三期》

更好的助力學習集訓營課程

有意的親們抓緊時間嘍

兩人及兩人以上組團立減

500元

想組團者/諮詢可以

添加微信客服

julyedukefu_02

??

長按識別二維碼

 

更多資訊

 請戳一戳

往期推薦

那些年薪40萬的人,究竟做對了什麼?

【內推】用了這麼久支付寶,你難道不想來螞蟻金服試試嗎?

這10種深度學習方法,AI從業者必備!

乾貨 | 一圖掌握整個深度學習核心知識體系【高清下載】

為什麼程序員總喜歡在半夜寫代碼?

2019校招面試必備,15個CNN關鍵回答集錦【建議收藏】

點擊下方 「

閱讀原文

」 ,在線報名

↓↓↓ 
推薦閱讀:

盧麒元:如何學習金融 ?
構建情境教育兒童學習範式      李吉林
監督學習(LDA)和無監督學習(PCA)

TAG:學習 | 機器學習 | 面試 | 機器 |