標籤:

2.7 蒙特卡洛近似

通常,使用變數公式的變化來計算實數變數的函數的分布可能是困難的。首先,採樣 S 個樣本,稱為 x_1,ldots,x_S ,有很多方法可以生成這個採樣,比如馬爾科夫鏈蒙特卡洛。給定採樣,可以通過經驗分布 {f(x_s)}^S_{s=1} 得到近似分布 f(X) ,這稱為蒙特卡洛近似。只需採樣,然後計算算數平均值,如下: E[f(X)]=int f(x)p(x)dxapproxfrac{1}{S}sum^S_{s=1}f(x_s)	ag{2.98}

其中 x_ssim p(X) 。這稱為蒙特卡洛積分。通過改變 f() ,可以儘速很多感興趣的量,例如:

  • ar{x}=frac{1}{S}sum^S_{s=1}x_s
ightarrow E[X]
  • frac{1}{S}sum^S_{s=1}(x_s-ar x)^2
ightarrow var[X]
  • frac{1}{S}#{x_sle c}
ightarrow P(Xle c)
  • median{x_1,ldots,x_S}
ightarrow median(X)

2.7.1 例子:變數的變化,蒙特卡洛的方式

假設 xsim Unif(-1,1)y=x^2 ,可以從 p(x) 採樣很多點,求平方,計算經驗分布,來近似 p(y)

2.7.2 例子:通過蒙特卡洛積分估計 pi

I=int^r_{-r}int^r_{-r}I(x^2+y^2le r^2)dxdy	ag{2.99}

pi=I/(r^2) 。令 f(x,y)=I(x^2,y^2le r^2) 作為指示函數, p(x)p(y)[-r,r] 的均勻分布,於是 p(x)=p(y)=1/(2r) 。於是 egin{align} I&=(2r)(2r)intint f(x,y)p(x)p(y)dxdy	ag{2.100}\ &=4r^2intint f(x,y)p(x)p(y)dxdy	ag{2.101}\ &approx4r^2frac{1}{S}sum^S_{s=1}f(x_s,y_s)	ag{2.102} end{align}

發現標準差為 0.09hat pi=3.1416

2.7.3 蒙特卡洛近似的精度

如果指定精確均值為 mu=E[f(X)] ,蒙特卡洛近似為 hat mu ,採樣獨立的情況下, (hat mu-mu)
ightarrow N(0,frac{sigma^2}{S})	ag{2.103}

其中 sigma^2=var[f(X)]=E[f(X)]^2-E[f(X)]^2	ag{2.104}

這是中心極限定理的結果。 sigma^2 是未知的,但也可以由蒙特卡洛估計: hat sigma^2=frac{1}{S}sum^S_{s=1}(f(x_s)-hat mu)^2	ag{2.105}

於是得到 Pleft{mu-1.96frac{hat sigma}{sqrt S}lehatmulemu+1.96frac{hatsigma}{sqrt S}
ight}approx0.95	ag{2.106}

sqrtfrac{hatsigma^2}{S} 被稱為數值或經驗標準差。如果想以至少 95\% 的概率報告準確度在 pmepsilon 之內的答案,則採樣數量需要滿足 1.96sqrt{ hat sigma/S}leepsilon ,近似 1.962 ,則 Sgefrac{4hat sigma^2}{epsilon^2}

推薦閱讀:

機器如何做「閱讀理解」?
Learning Theory
比賽心路 駕駛行為預測駕駛風險(二)
Coursera Machine Learning疑惑與解答-第1篇-Week3 Assignments

TAG:機器學習 |