標籤:

資訊理論基礎 第一章小結

資訊理論基礎 第一章小結

資訊理論導論

資訊理論解答了通信理論中的兩個基礎問題:

臨界數據壓縮的值(熵H)

臨界通信傳輸速率的值(信道容量C)

資訊理論與其他學科之間的關係如下圖:

資訊理論與其他學科的關係

  • 電子工程(通信理論)

過去認為:以正速率發送信息,忽略誤差概率是不可能做到的。

香農證明:只要通信速率低於信道容量,總可以使誤差概率接近於零。

把所有可能的通信方案看成一個集合,數據壓縮程度不能低於左臨界值。數據傳輸速率補得大於右臨界值(信道容量)。

所有的調製方案和數據壓縮方案都必須介於這兩個臨界值之間。

  • 計算機科學(柯爾莫哥洛夫複雜度)

複雜度:最小描述長度

一組數據串的複雜度可以定義為該數據穿所需的最短二進位程序的長度。如果序列的熵為H,則其複雜度近似等於熵H

  • 物理學(熱力學)

對於孤立系統,熵永遠增加。

  • 數學(概率論與統計學)

資訊理論中的基本量——熵被定義成概率分布的泛函數。

  • 科學的哲學觀

奧克姆剃刀:因不宜超出果之所需

最簡單的解釋是最佳的

  • 經濟學(投資)
  • 計算與通信

本書概覽

如果隨機變數X的概率密度函數為p(x),則X的熵定義為

H(x)=-sum_{x}{p(x)*log_{2}{p(x)}}

單個隨機變數的熵為該隨機變數的不確定度。

  • 條件熵H(X|Y)

定義:一個隨機變數在給定另一個隨機變數的條件下的熵。

  • 互信息

定義:由另一個隨機變數導致的原隨機變數不確定度的縮減量

I(X;Y) = H(X)-H(X|Y) = sum_{x,y}p(x,y)log{frac{p(x,y)}{p(x)p(y)}}

互信息是兩個隨機變數之間的獨立程度的度量,關於XY對稱,並且永遠非負。當且僅當XY相互獨立時,等於0.

互信息實際上是更廣泛量的相對熵D(p||q)的特殊情形。

相對熵是兩個概率密度函數p和q之間的距離度量,定義為

D(p||q)= sum_{x}{p(x)logfrac{p(x)}{q(x)}}

  • 通信信道

定義:此系統的輸出信號按概率依賴於輸入信號,特徵由一個專一概率矩陣p(x|y)決定

對於輸入信號X和輸出信號Y,定義通信信道容量

C= max_{p(x)} I(X;Y)

以上講到的這些概念與定義,在一下領域均有涉及與應用

  • 數據傳輸
  • 數據壓縮
  • 網路信息理論
  • 遍歷理論
  • 假設檢驗
  • 統計力學
  • 量子力學
  • 博弈與投資
  • 概率論
  • 複雜度理論

推薦閱讀:

資訊理論抄書筆記 - 馬爾可夫鏈與熵的結合
信息與香農...
學堂在線《應用資訊理論基礎》學習筆記01
從資訊理論的角度理解與可視化神經網路
資訊理論(一)

TAG:資訊理論 |