標籤:

交叉熵、相對熵及KL散度通俗理解

交叉熵、相對熵及KL散度通俗理解

原文轉載自blog.csdn.net/u01216261

本文是《Neural networks and deep learning》概覽 中第三章的一部分,講machine learning演算法中用得很多的交叉熵代價函數。

1.從方差代價函數說起

代價函數經常用方差代價函數(即採用均方誤差MSE),比如對於一個神經元(單輸入單輸出,sigmoid函數),定義其代價函數為:

其中y是我們期望的輸出,a為神經元的實際輸出【 a=σ(z), where z=wx+b 】。

在訓練神經網路過程中,我們通過梯度下降演算法來更新w和b,因此需要計算代價函數對w和b的導數:

然後更新w、b:

w <—— w - η* ?C/?w = w - η * a *σ′(z)

b <—— b - η* ?C/?b = b - η * a * σ′(z)

因為sigmoid函數的性質,導致σ′(z)在z取大部分值時會很小(如下圖標出來的兩端,幾近於平坦),這樣會使得w和b更新非常慢(因為η * a * σ′(z)這一項接近於0)。

2.交叉熵代價函數(cross-entropy cost function)

為了克服這個缺點,引入了交叉熵代價函數(下面的公式對應一個神經元,多輸入單輸出):

其中y為期望的輸出,a為神經元實際輸出【a=σ(z), where z=∑Wj*Xj+b】

與方差代價函數一樣,交叉熵代價函數同樣有兩個性質

  • 非負性。(所以我們的目標就是最小化代價函數)
  • 當真實輸出a與期望輸出y接近的時候,代價函數接近於0.(比如y=0,a~0;y=1,a~1時,代價函數都接近0)。

另外,它可以克服方差代價函數更新權重過慢的問題。我們同樣看看它的導數:

可以看到,導數中沒有σ′(z)這一項,權重的更新是受σ(z)?y這一項影響,即受誤差的影響。所以當誤差大的時候,權重更新就快,當誤差小的時候,權重的更新就慢。這是一個很好的性質。

3.總結

  • 當我們用sigmoid函數作為神經元的激活函數時,最好使用交叉熵代價函數來替代方差代價函數,以避免訓練過程太慢。
  • 不過,你也許會問,為什麼是交叉熵函數?導數中不帶σ′(z)項的函數有無數種,怎麼就想到用交叉熵函數?這自然是有來頭的,更深入的討論就不寫了,少年請自行了解。
  • 另外,交叉熵函數的形式是?[ylna+(1?y)ln(1?a)]而不是 ?[alny+(1?a)ln(1?y)],為什麼?因為當期望輸出的y=0時,lny沒有意義;當期望y=1時,ln(1-y)沒有意義。而因為a是sigmoid函數的實際輸出,永遠不會等於0或1,只會無限接近於0或者1,因此不存在這個問題。

4.還要說說:log-likelihood cost

對數似然函數也常用來作為softmax回歸的代價函數,在上面的討論中,我們最後一層(也就是輸出)是通過sigmoid函數,因此採用了交叉熵代價函數。而深度學習中更普遍的做法是將softmax作為最後一層,此時常用的是代價函數是log-likelihood cost。

In fact, it』s useful to think of a softmax output layer with log-likelihood cost as being quite similar to a sigmoid output layer with cross-entropy cost。

其實這兩者是一致的,logistic回歸用的就是sigmoid函數,softmax回歸是logistic回歸的多類別推廣。log-likelihood代價函數在二類別時就可以化簡為交叉熵代價函數的形式。具體可以參考UFLDL教程

5.熵與KL散度

鏈接:zhihu.com/question/4125

熵的本質是香農信息量(logfrac{1}{p} )的期望。

現有關於樣本集的2個概率分布p和q,其中p為真實分布,q非真實分布。按照真實分布p來衡量識別一個樣本的所需要的編碼長度的期望(即平均編碼長度)為:H(p)=sum_{i}^{} p(i)*logfrac{1}{p(i)} 。如果使用錯誤分布q來表示來自真實分布p的平均編碼長度,則應該是:H(p,q)=sum_{i}^{} p(i)*logfrac{1}{q(i)} 。因為用q來編碼的樣本來自分布p,所以期望H(p,q)中概率是p(i)。H(p,q)我們稱之為「交叉熵」。

比如含有4個字母(A,B,C,D)的數據集中,真實分布p=(1/2, 1/2, 0, 0),即A和B出現的概率均為1/2,C和D出現的概率都為0。計算H(p)為1,即只需要1位編碼即可識別A和B。如果使用分布Q=(1/4, 1/4, 1/4, 1/4)來編碼則得到H(p,q)=2,即需要2位編碼來識別A和B(當然還有C和D,儘管C和D並不會出現,因為真實分布p中C和D出現的概率為0,這裡就欽定概率為0的事件不會發生啦)。

可以看到上例中根據非真實分布q得到的平均編碼長度H(p,q)大於根據真實分布p得到的平均編碼長度H(p)。事實上,根據Gibbs inequality可知,H(p,q)>=H(p)恆成立,當q為真實分布p時取等號。我們將由q得到的平均編碼長度比由p得到的平均編碼長度多出的bit數稱為「相對熵」:D(p||q)=H(p,q)-H(p)=sum_{i}^{} p(i)*logfrac{p(i)}{q(i)} ,其又被稱為KL散度(Kullback–Leibler divergence,KLD) Kullback–Leibler divergence。它表示2個函數或概率分布的差異性:差異越大則相對熵越大,差異越小則相對熵越小,特別地,若2者相同則熵為0。注意,KL散度的非對稱性。

比如TD-IDF演算法就可以理解為相對熵的應用:詞頻在整個語料庫的分布與詞頻在具體文檔中分布之間的差異性。

交叉熵可在神經網路(機器學習)中作為損失函數,p表示真實標記的分布,q則為訓練後的模型的預測標記分布,交叉熵損失函數可以衡量p與q的相似性。交叉熵作為損失函數還有一個好處是使用sigmoid函數在梯度下降時能避免均方誤差損失函數學習速率降低的問題,因為學習速率可以被輸出的誤差所控制。

PS:通常「相對熵」也可稱為「交叉熵」,因為真實分布p是固定的,D(p||q)由H(p,q)決定。當然也有特殊情況,彼時2者須區別對待。


推薦閱讀:

Seq2Seq中的beam search演算法
吳恩達機器學習第二周課後感:線性回歸
Sigmoid vs Softmax 輸出層選擇
【機器學習備忘錄】AUC值的含義與計算方法
一樣的打遊戲,不一樣的酷

TAG:機器學習 |