BAT機器學習面試1000題(461~465題)
點擊上方
?
藍字關注七月在線實驗室BAT機器學習面試1000題(461~465題)
461題
461、類域界面方程法中,不能求線性不可分情況下分類問題近似或精確解的方法是( )
A、勢函數法
B、基於二次準則的H-K演算法
C、偽逆法
D、感知器演算法
點擊下方空白區域查看答案▼
正確答案是:D
解析:
線性分類器的設計就是利用訓練樣本集建立線性判別函數式,也就是尋找最優的權向量的過程。求解權重的過程就是訓練過程,訓練方法的共同點是,先給出準則函數,再尋找是準則函數趨於極值的優化方法。ABC方法都可以得到線性不可分情況下分類問題近似解。感知器可以解決線性可分的問題,但當樣本線性不可分時,感知器演算法不會收斂。
462題
下列哪個不屬於CRF模型對於HMM和MEMM模型的優勢
A、特徵靈活
B、速度快
C、可容納較多上下文信息
D、全局最優
點擊下方空白區域查看答案 ▼
正確答案是: B
解析:
HMM模型是對轉移概率和表現概率直接建模,統計共現概率。而MEMM模型是對轉移概率和表現概率建立聯合概率,統計時統計的是條件概率。CRF是在給定需要標記的觀察序列的條件下,計算整個標記序列的聯合概率分布,而不是在給定當前狀態條件下,定義下一個狀態的狀態分布。MEMM容易陷入局部最優,是因為MEMM只在局部做歸一化。CRF模型中,統計了全局概率,在做歸一化時,考慮了數據在全局的分布,而不是僅僅在局部歸一化,這樣就解決了MEMM中的標記偏置的問題。
CRF沒有HMM那樣嚴格的獨立性假設條件,因而可以容納任意的上下文信息,特徵設計靈活。CRF需要訓練的參數更多,與MEMM和HMM相比,它存在訓練代價大、複雜度高的缺點。
463題
Nave Bayes是一種特殊的Bayes分類器,特徵變數是X,類別標籤是C,它的一個假定是()
A、各類別的先驗概率P(C)是相等的
B、以0為均值,sqr(2)/2為標準差的正態分布
C、特徵變數X的各個維度是類別條件獨立隨機變數
D、P(X|C)是高斯分布
點擊下方空白區域查看答案▼
正確答案是:C
解析:
樸素貝葉斯的基本假設就是每個變數相互獨立。
464題
在HMM中,如果已知觀察序列和產生觀察序列的狀態序列,那麼可用以下哪種方法直接進行參數估計()
A、EM演算法
B、維特比演算法
C、前向後向演算法
D、極大似然估計
點擊下方空白區域查看答案▼
正確答案是:D
解析:
EM演算法: 只有觀測序列,無狀態序列時來學習模型參數,即Baum-Welch演算法
維特比演算法: 用動態規劃解決HMM的預測問題,不是參數估計
前向後向演算法:用來算概率
極大似然估計:即觀測序列和相應的狀態序列都存在時的監督學習演算法,用來估計參數
注意的是在給定觀測序列和對應的狀態序列估計模型參數,可以利用極大似然發估計。如果給定觀測序列,沒有對應的狀態序列,才用EM,將狀態序列看不不可測的隱數據。
題目解析參考自:@BlackEyes_SGC
465題
假定某同學使用Naive Bayesian(NB)分類模型時,不小心將訓練數據的兩個維度搞重複了,那麼關於NB的說法中不正確的是?
點擊下方空白區域查看答案 ▼
正確答案是: B
解析:
Fisher線性判別函數是將多維空間中的特徵矢量投影到一條直線上,也就是把維數壓縮到一維。尋找這條最優直線的準則是Fisher準則:兩類樣本在一維空間的投影滿足類內儘可能密集,類間儘可能分開,也就是投影后兩類樣本均值之差儘可能大,類內部方差儘可能小。一般而言,對於數據分布近似高斯分布的情況,Fisher線性判別準則能夠得到很好的分類效果。
題目來源
:七月在線官網(https://www.julyedu.com/)——面試題庫——筆試練習——機器學習今日推薦
【
推薦系統實戰
】9月29日即將開班
首次全面公開
推薦技術
在BAT中的核心應用
從零開始搭建一個完整的推薦系統
BAT一線講師 核心演算法講解 九大實戰項目
有意的親們抓緊時間嘍
兩人及兩人以上組團立減
100元
想組團者/諮詢課程可以
添加下方微信客服
julyedukefu_02
??
長按識別二維碼
更多資訊
請戳一戳
往期推薦
【內推】用了這麼久支付寶,你難道不想來螞蟻金服試試嗎?
這10種深度學習方法,AI從業者必備!
乾貨 | 一圖掌握整個深度學習核心知識體系【高清下載】
為什麼程序員總喜歡在半夜寫代碼?
2019校招面試必備,15個CNN關鍵回答集錦【建議收藏】
年薪25萬的程序員都選擇轉行了,究竟是什麼行業這麼熱門?
點擊下方 「
閱讀原文
」 ,在線報名↓↓↓
推薦閱讀:
※《群書治要360》學習分享(第三十八集)
※子彈頭照明:讓學習成為前行的力量
※隸書學習指南(連載六):宋、元、明、清時期的隸書
※學習安妮,戰勝乏味
※學習 德語