第五講:樸素貝葉斯應用(分類文本)和高斯樸素貝葉斯
1. Na?ve Bayes應用:
方法一:以1表示出現,以0表示未出現。(這個好像就是one-hot表示?)
問題:沒有考慮到context,也就是詞與詞之間的相關性。
方法二:用Xi表示第i個位置的詞,同時假設每個X都是i.i.d.。也就是說相當於丟骰子,每個位置都可能出現這5000個常用英文單詞中的一個,而且它們的分布相同,且獨立於預測結果Y。(這也是Bag of Words Model)
2. MAP estimates for bag of words:
Beta的選擇可以是訓練數據中這個詞出現的次數,也可以是在整個Internet中它出現的概率。(當然選擇後者明顯是更好的)
3. 處理連續的變數:
在學習處理人腦活動圖這個例子中,合理的假設是variance與Y無關(也就是說假設在這些活動圖數據中,variance(也就是Noise)是因為機器的原因而產生的,而不是來自數據本身的干擾(variance與X相關))。
這裡提到有個indicating function,這個形式比較重要。
老師在前面這裡也有大概講了一下indicating function。但是這裡推導了半天的東西我不知道用來幹嘛... 可能也是作為一個判斷的依據這樣么?
注意如果這個地方假設看到"tool"的人數和看到"building"的人數是一半一半,那麼我們也不能認為是0.5,而是要比0.5高一點,因為我們要保證statistically significant p < 0.05。
4. Na?ve Bayes總結:
推薦閱讀:
※如何評價李開復新書《人工智慧》?
※線性鏈條件隨機場-tutorial(二)
※拓撲數據分析 - 持續同調(二)
※Berkeley CS294-112 深度增強學習 筆記 (3) 增強學習簡介
※說說為什麼svm中的某核能映射到無窮維