資訊理論抄書筆記 - 馬爾可夫鏈與熵的結合
針對隨機變數 ,其熵 可以衡量 的不確定度。
複雜一點,聯合分布 ,熵為 。
而當這裡的隨機變數 變成一個隨機過程 時,就有必要重新思考如何度量不確定度了。單個的定義 不是很好,於是我們乾脆定義一個比較平均一點的熵-熵率。
Definition 1:熵率(entropy rate):
若極限 存在,則稱為的熵率
另一個量也與熵率有不可描述的聯繫:
這兩個量也不過是反映一個隨機過程的entropy怎麼變化的。
而以此定義的同時,會得到一個比較漂亮的結果,如下:
Theorem 1:
一個平穩隨機過程 ( 即 ,任意連續n個狀態之間的聯繫和時間無關),它的
這個證明其實比較容易,淑芬中有一道經典的習題
這道題在這裡有了運用。
第一個等式是平穩性得到,後面相當於說明了 是遞減恆正, 則 自然有極限,
結合
兩邊取極限,可以很容易得證
而這個漂亮的性質,應用在我們的馬爾科夫過程中,就有更加亦可賽艇的結論!
先上馬爾可夫過程(又稱為馬爾可夫鏈)定義
Definition 2:馬爾可夫鏈(Markov chain or Markov process)
離散隨機過程 滿足
則稱其為馬爾可夫鏈
對於這個定義,其實有一個比較有趣的概括
Knowing the present state, the future of the system is independent of the past.
某種程度上相當於:對於現在的你來說,未來永遠與過去無關 (這句話...或許能拿來煲一碗雞湯)
那麼這樣來的話,對於平穩的Markov chain,初始為平穩分布,它的熵率
所以對於Markov chain求熵率其實很簡單,然而我們眉頭微微一皺,會發現事情並不簡單。經常會有隨機過程不是Markov chain,而是Markov chain的函數
比如離散的隨機過程 和平穩的Markov chain 滿足 。
其實問題並不複雜.....
重新思考下可以發現:
顯然這個隨機過程是平穩的,因此也可以用 來求熵率,但除此之外我們有一些奇妙的結論,比如關於 的夾逼不等式。
Theorem 2:
且
定理的證明有點巧,但也自然,兩個式子的右式的證明,在前面說明 關於n遞減,取極限時給過了。問題主要是左邊的式子的證 明。
對於第一個不等式來說,我們想辦法把Markov chain的性質和平穩的性質用上去。
再令 得證
第二個等式來說仿照上面的證法,利用 和 就能得證
於是乎,這篇文章講了什麼呢?
emmm......主要講了怎麼定義隨機過程的「熵」以及怎麼求這個「熵」,尤其是Markov chain的熵率,大概就是這樣。
推薦閱讀:
※學堂在線《應用資訊理論基礎》學習筆記01
※資訊理論(一)
※信息與香農...
TAG:資訊理論 |