第五講:樸素貝葉斯應用(分類文本)和高斯樸素貝葉斯

1. Na?ve Bayes應用:

方法一:以1表示出現,以0表示未出現。(這個好像就是one-hot表示?)

問題:沒有考慮到context,也就是詞與詞之間的相關性。

方法二:用Xi表示第i個位置的詞,同時假設每個X都是i.i.d.。也就是說相當於丟骰子,每個位置都可能出現這5000個常用英文單詞中的一個,而且它們的分布相同,且獨立於預測結果Y。(這也是Bag of Words Model)

這裡跟之前的例子其實差不多,用的還是Dirichlet distribution

右邊數字代表在詞在文本中出現的次數

2. MAP estimates for bag of words:

Beta的選擇可以是訓練數據中這個詞出現的次數,也可以是在整個Internet中它出現的概率。(當然選擇後者明顯是更好的)

3. 處理連續的變數:

在學習處理人腦活動圖這個例子中,合理的假設是variance與Y無關(也就是說假設在這些活動圖數據中,variance(也就是Noise)是因為機器的原因而產生的,而不是來自數據本身的干擾(variance與X相關))。

這裡提到有個indicating function,這個形式比較重要。

老師在前面這裡也有大概講了一下indicating function。但是這裡推導了半天的東西我不知道用來幹嘛... 可能也是作為一個判斷的依據這樣么?

注意如果這個地方假設看到"tool"的人數和看到"building"的人數是一半一半,那麼我們也不能認為是0.5,而是要比0.5高一點,因為我們要保證statistically significant p < 0.05。

4. Na?ve Bayes總結:


推薦閱讀:

如何評價李開復新書《人工智慧》?
線性鏈條件隨機場-tutorial(二)
拓撲數據分析 - 持續同調(二)
Berkeley CS294-112 深度增強學習 筆記 (3) 增強學習簡介
說說為什麼svm中的某核能映射到無窮維

TAG:机器学习 | 高斯过程机器学习 |