PRML第一章公式1.68如何推導?

公式直觀上能感覺出來是這樣的,但是怎麼嚴格地數學推導?


有兩種思路來理解:

1.在貝葉斯中數據是已知的,只有參數w是不確定的。因此式(1.68)中x,mathbf{x},mathbf{t}都是已知的,為了直觀,我們可以把已知的都去掉,於是式1.68變為

p(t)=int p(t|mathbf{w})p(mathbf{w}) dmathbf{w}=int p(t,mathbf{w})dmathbf{w}

這就很好理解了,就是對mathbf{w}做marginalization

如果帶上數據,推導是這樣的:

int p(t|x,mathbf{w})p(mathbf{w}|mathbf{x},mathbf{t})dmathbf{w}=int p(t,mathbf{w}|x,mathbf{x},mathbf{t})dmathbf{w}=p(t|x,mathbf{x},mathbf{t})

2.第二種思路需要用到概率圖模型的知識,可以參考我的筆記:

http://nbviewer.jupyter.org/github/hschen0712/machine_learning_notes/blob/master/PRML/Chap1-Introduction/1.2-probability-theory.ipynb


推薦閱讀:

現在圖像處理和模式識別前景如何?
拓撲學在機器學習里有哪些應用呢?
自學模式識別應該看些什麼書?
任天堂的商業模式是什麼?
工業視覺檢測發展現狀?

TAG:機器學習 | 模式識別 | 高等數學 | 概率論 | PRML |