高斯過程回歸(GPR)

高斯過程回歸(GPR)

考慮添加了高斯雜訊的標準線性模型:

f(x)=w^Tx+b , y=f(x)+epsilon ,

我們假定雜訊 epsilon 服從正態分布 epsilonsim N(0, sigma^2)

對應的似然函數為: p(y|X,w)=prod_{n=1}^{N}p(y_n|x_n, w)=N(y|Xw, sigma^2I)

現在考慮參數w的一個先驗分布 wsim N(0, Sigma_p)


現在我們是任務是求w的後驗分布, p(w|X,y) ,根據貝葉斯定理:

p(w|X,y)= frac{p(w)p(y|X,w)}{p(y|X)} ,其中 p(y|X)=int p(y|X,w)dw ,可以發現 p(y|X) 與w無關,故在求解w的後驗收分布中,認為是一個常量。故:

p(w|X,y) ∝ p(w)p(y|X,w) ∝exp{-frac12(y-Xw)^T(y-Xw)}exp{-frac12w^TSigma_p^{-1}w}

通過一系列的公式運算,可得: p(w|X,y) sim N(frac1{sigma^2}A^{-1}Xy, A^{-1}) , 其中 A = σ^{?2}X^TX + Σ_p^{?1}


為了預測測試樣例的值,我們需要求解其概率: p(f_*|x_*,X,y) ,求解此邊緣概率,可用公式: p(f_*|x_*,X,y)=int p(f_*|x_*,w, X, y)p(w|X, y)dw ,進過數學運算,可得:

p(f_*|x_*,X,y)sim N(frac1{sigma^2}x_*^TA^{-1}Xy,x_*^TA^{-1}x_*) ,可見預測分布也是高斯分布。

上圖是貝葉斯線性模型的一個例子,模型為 f(x)=w_1x+w_2 ,其中a是 p(w)sim N(0, I) 的先驗分布。b中展示了三個訓練點的位置。c顯示了 p(y|X,w) 似然。d展示的是w的後驗概率 p(w|y,X) .


高斯過程:高斯過程是一個變數的集合,變數的任意有限組合,構成一個聯合高斯分布。

高斯過程是由均值函數和協方差函數來表示的。

m(x) = E[f(x)]

k(x, x′) = E[(f(x) ? m(x))(f(x′) ? m(x′))]

高斯過程表示為 f(x) ~ GP m(x), k(x, x′)

高斯過程的一個簡單例子,可以考慮從貝葉斯線性模型 f(x)=w^Tvarphi (x) 考慮,其中w的先驗概率為 wsim N(0, Sigma_p) ,所以

均值為 E[f(x)] = φ(x)^TE[w] = 0

協方差為 E[f(x)f(x′)] = φ(x)^TE[ww^T]φ(x′) = φ(x)^TΣ_pφ(x′)


高斯過程定義的聯合分布是高斯分布,則訓練集輸出f 和測試點輸出的 f_* 對應的先驗分布是:

為了獲取其函數 f_* 的後驗分布,我們需要丟棄不經過觀察點的函數。如果考慮雜訊的影響,聯合分布可以寫成如下公式:

通過運算我們可知f_*的後驗分布形式:

簡寫形式為(與上面公式是一樣的,純粹是符號的簡寫):

所以,高斯過程回歸的流程為:


推薦閱讀:

小班數學活動:找朋友
排列組合初步
從「比較GPA」談起
自然生活的數學原理
Geometry. I. Finite Field Kakeya Problem

TAG:數學 | 自然科學 | 機器學習 |