ARCH & GARCH入門

ARCH & GARCH入門

來自專欄 Eureka機器學習讀書筆記5 人贊了文章

首先開始ARCH(1),模型如下:

y_{t}=x_{t}^{}	heta +varepsilon _{t},x_{t}^{}是y_{t}的回歸集合,x_{t}^{}	heta是y_{t}的條件均值

varepsilon _{t}=sigma _{t}z_{t}

sigma _{t}^{2}=omega +alpha varepsilon _{t-1}^{2} 這是條件方差,下面會證明

z_{t}sim iid~N(0,1)

omega>0,alpha geqslant 0 $

ARCH(p)即 sigma _{t}^{2}=omega +alpha _{1}varepsilon _{t-1}^{2}+...+alpha _{p}varepsilon _{t-p}^{2} ,從t-1到t-p。

我們將從三部分來理解ARCH(1):

第一部分:

z_{t}sim iid~N(0,1) :標準正態衝擊

varepsilon _{t}=sigma _{t}z_{t} :對衝擊 z_{t} 放大 sigma _{t}

E(varepsilon _{t}^{2}|I_{t-1})=E(sigma _{t}^{2}z_{t}^{2}|I_{t-1})=sigma _{t}^{2}E(z_{t}^{2}|I_{t-1})=sigma _{t}^{2},其中I_{t-1}=left { y_{1}x_{1},y_{2}x_{2},...,y_{t-1}x_{t-1} 
ight }=left { varepsilon _{1},varepsilon _{2},...varepsilon _{t-1} 
ight } 此就為條件方差

因此, varepsilon _{t} 的條件分布: varepsilon _{t}|I_{t-1}sim N(0,sigma _{t}^{2})

第二部分:varepsilon _{t}^{2} 分解

varepsilon _{t}^{2}=E(varepsilon _{t}^{2}|I_{t-1})+v_{t}=sigma _{t}^{2}+v_{t},其中E(v_{t}|I_{t-1})=0

重寫表達式:

sigma _{t}^{2}=omega+alpha varepsilon _{t-1}^{2}

varepsilon _{t}^{2}-v_{t}=omega +alpha varepsilon _{t-1}^{2}

varepsilon _{t}^{2}=omega +alpha varepsilon _{t-1}^{2}+v_{t}sim AR(1),對於varepsilon _{t}的平方

第三部分:

約束: 0leqslant alpha < 1 ,考慮到四階矩約束會更強

無條件方差由AR(1)可得: sigma ^{2}=E(varepsilon _{t}^{2})=frac{omega }{1-alpha }

由上可以看出: sigma ^{2}=E(varepsilon _{t}^{2})=frac{omega }{1-alpha } 是條件異方差,無條件同方差。

varepsilon _{t-1} 越大, E(varepsilon _{t}^{2}|I_{t-1}) 越大;同樣 varepsilon _{t-1} 越小, E(varepsilon _{t}^{2}|I_{t-1}) 越小,即波動聚集效應。

如下圖:紅色是 varepsilon _{t} ,藍色是條件方差,綠色為無條件方差

GARCH(1,1),模型如下:

y_{t}=x_{t}^{}	heta +varepsilon _{t}

varepsilon _{t}=sigma _{t}z_{t}

sigma _{t}^{2}=omega +alpha varepsilon _{t-1}^{2}+eta sigma _{t-1}^{2}

z_{t}sim iid~N(0,1)

omega>0,alpha geqslant 0,eta geqslant 0

我們將從四部分來理解GARCH(1,1):

第一部分:

z_{t}sim iid~N(0,1)

varepsilon _{t}=sigma _{t}z_{t} :對衝擊 z_{t} 放大 sigma _{t}

E(varepsilon _{t}^{2}|I_{t-1})=E(sigma _{t}^{2}z_{t}^{2}|I_{t-1})=sigma _{t}^{2}E(z_{t}^{2}|I_{t-1})=sigma _{t}^{2},其中I_{t-1}=left { y_{1}x_{1},y_{2}x_{2},...,y_{t-1}x_{t-1} 
ight }=left { varepsilon _{1},varepsilon _{2},...varepsilon _{t-1} 
ight },此為條件方差

因此, varepsilon _{t} 的條件分布: varepsilon _{t}|I_{t-1}sim N(0,sigma _{t}^{2})

第二部分:varepsilon _{t}^{2} 分解

varepsilon _{t}^{2}=E(varepsilon _{t}^{2}|I_{t-1})+v_{t}=sigma _{t}^{2}+v_{t}

很容易證明 v_{t} 是鞅差序列,即: E(v_{t})=0,cov(v_{t},v_{t-1})=0~for~all~j 。但是{ v_{t} }通常不是iid序列。

重寫表達式:

sigma _{t}^{2}=omega +alpha varepsilon _{t-1}^{2}+eta sigma _{t-1}^{2}

varepsilon _{t}^{2}-v_{t}=omega +alpha varepsilon _{t-1}^{2}+eta sigma _{t-1}^{2}

varepsilon _{t}^{2}-v_{t}=omega +alpha varepsilon _{t-1}^{2}+eta (varepsilon _{t-1}^{2}+v_{t-1}

varepsilon _{t}^{2}=omega +(alpha+eta) varepsilon _{t-1}^{2}+v_{t}-etaomega_{t-1}sim ARMA(1,1),對於varepsilon _{t}的平方

第三部分:

約束: 0leqslant alpha+eta < 1 ,考慮到四階矩約束會更強

無條件方差由AR(1)可得: sigma ^{2}=E(varepsilon _{t}^{2})=frac{omega }{1-alpha-eta }

第四部分:

sigma _{t}^{2}=omega +alpha varepsilon _{t-1}^{2}+eta sigma _{t-1}^{2}

=omega +alpha varepsilon _{t-1}^{2}+eta (omega +alpha varepsilon _{t-2}^{2}+eta sigma _{t-2}^{2})

=(1+eta)omega +alpha varepsilon _{t-1}^{2}+alphaetavarepsilon _{t-2}^{2}+eta^{2} sigma _{t-2}^{2})

...

=(1+eta+eta^{2}+...)omega +alpha sum_{i=1}^{infty }eta ^{i-1}varepsilon _{t-1}^{2}

由上可以看出: sigma _{t}^{2}varepsilon _{t}^{2} 有無限的記憶,因此,所有的 varepsilon _{t}^{2} 都是重要的。但是平穩性,係數會逐漸的衰減,這也是GARCH模型相對於ARCH模型好的原因。

參考:

youtube.com/watch?

youtube.com/watch?


推薦閱讀:

寫給你的金融時間序列分析:應用篇
DARNN:一種新的時間序列預測方法——基於雙階段注意力機制的循環神經網路
如何認識趨勢?|來自計量經濟學的視角
Arima

TAG:時間序列分析 |