初學機器學習:直觀解讀KL散度的數學概念
來自專欄機器之心92 人贊了文章
選自http://thushv.com,作者:Thushan Ganegedara,機器之心編譯。
機器學習是當前最重要的技術發展方向之一。近日,悉尼大學博士生 Thushan Ganegedara 開始撰寫一個系列博客文章,旨在為機器學習初學者介紹一些基本概念。本文是該系列的第一篇文章,介紹了 KL 散度(KL divergence)的基本數學概念和初級應用。作者已將相關代碼發布在 GitHub 上。
代碼:https://github.com/thushv89/nlp_examples_thushv_dot_com/blob/master/kl_divergence.ipynb
基礎概念
首先讓我們確立一些基本規則。我們將會定義一些我們需要了解的概念。
分布(distribution)
分布可能指代不同的東西,比如數據分布或概率分布。我們這裡所涉及的是概率分布。假設你在一張紙上畫了兩根軸(即 X 和 Y),我可以將一個分布想成是落在這兩根軸之間的一條線。其中 X 表示你有興趣獲取概率的不同值。Y 表示觀察 X 軸上的值時所得到的概率。即 y=p(x)。下圖即是某個分布的可視化。
這是一個連續概率分布。比如,我們可以將 X 軸看作是人的身高,Y 軸是找到對應身高的人的概率。
如果你想得到離散的概率分布,你可以將這條線分成固定長度的片段並以某種方式將這些片段水平化。然後就能根據這條線的每個片段創建邊緣互相連接的矩形。這就能得到一個離散概率分布。
事件(event)
對於離散概率分布而言,事件是指觀察到 X 取某個值(比如 X=1)的情況。我們將事件 X=1 的概率記為 P(X=1)。在連續空間中,你可以將其看作是一個取值範圍(比如 0.95<X<1.05)。注意,事件的定義並不局限於在 X 軸上取值。但是我們後面只會考慮這種情況。
回到 KL 散度
從這裡開始,我將使用來自這篇博文的示例:https://www.countbayesie.com/blog/2017/5/9/kullback-leibler-divergence-explained。這是一篇很好的 KL 散度介紹文章,但我覺得其中某些複雜的解釋可以更詳細的闡述。好了,讓我們繼續吧。
我們想要解決的問題
上述博文中所解決的核心問題是這樣的:假設我們是一組正在廣袤無垠的太空中進行研究的科學家。我們發現了一些太空蠕蟲,這些太空蠕蟲的牙齒數量各不相同。現在我們需要將這些信息發回地球。但從太空向地球發送信息的成本很高,所以我們需要用盡量少的數據表達這些信息。我們有個好方法:我們不發送單個數值,而是繪製一張圖表,其中 X 軸表示所觀察到的不同牙齒數量(0,1,2…),Y 軸是看到的太空蠕蟲具有 x 顆牙齒的概率(即具有 x 顆牙齒的蠕蟲數量/蠕蟲總數量)。這樣,我們就將觀察結果轉換成了分布。
發送分布比發送每隻蠕蟲的信息更高效。但我們還能進一步壓縮數據大小。我們可以用一個已知的分布來表示這個分布(比如均勻分布、二項分布、正態分布)。舉個例子,假如我們用均勻分布來表示真實分布,我們只需要發送兩段數據就能恢復真實數據;均勻概率和蠕蟲數量。但我們怎樣才能知道哪種分布能更好地解釋真實分布呢?這就是 KL 散度的用武之地。
直觀解釋:KL 散度是一種衡量兩個分布(比如兩條線)之間的匹配程度的方法。
讓我們對示例進行一點修改
為了能夠檢查數值的正確性,讓我們將概率值修改成對人類更友好的值(相比於上述博文中的值)。我們進行如下假設:假設有 100 只蠕蟲,各種牙齒數的蠕蟲的數量統計結果如下。
0 顆牙齒:2(概率:p_0 = 0.02)
1 顆牙齒:3(概率:p_1 = 0.03)
2 顆牙齒:5(概率:p_2 = 0.05)
3 顆牙齒:14(概率:p_3 = 0.14
4 顆牙齒:16(概率:p_4 = 0.16)
5 顆牙齒:15(概率:p_5 = 0.15)
6 顆牙齒:12(概率:p_6 = 0.12)
7 顆牙齒:8(概率:p_7 = 0.08)
8 顆牙齒:10(概率:p_8 = 0.1)
9 顆牙齒:8(概率:p_9 = 0.08)
10 顆牙齒:7(概率:p_10 = 0.07)
快速做一次完整性檢查!確保蠕蟲總數為 100,且概率總和為 1.0.
- 蠕蟲總數 = 2+3+5+14+16+15+12+8+10+8+7 = 100
- 概率總和 = 0.02+0.03+0.05+0.14+0.16+0.15+0.12+0.08+0.1+0.08+0.07 = 1.0
可視化結果為:
嘗試 1:使用均勻分布建模
我們首先使用均勻分布來建模該分布。均勻分布只有一個參數:均勻概率;即給定事件發生的概率。
均勻分布和我們的真實分布對比:
先不討論這個結果,我們再用另一種分布來建模真實分布。
嘗試 2:使用二項分布建模
你可能計算過拋硬幣正面或背面向上的概率,這就是一種二項分布概率。我們可以將同樣的概念延展到我們的問題上。對於有兩個可能輸出的硬幣,我們假設硬幣正面向上的概率為 p,並且進行了 n 次嘗試,那麼其中成功 k 次的概率為:
公式解讀
這裡說明一下二項分布中每一項的含義。第一項是 p^k。我們想成功 k 次,其中單次成功的概率為 p;那麼成功 k 次的概率為 p^k。另外要記得我們進行了 n 次嘗試。因此,其中失敗的次數為 n-k,對應失敗的概率為 (1-p)。所以成功 k 次的概率即為聯合概率
。到此還未結束。在 n 次嘗試中,k 次成功會有不同的排列方式。在數量為 n 的空間中 k 個元素的不同排列數量為
將所有這些項相乘就得到了成功 k 次的二項概率。
二項分布的均值和方差
我們還可以定義二項分布的均值和方差,如下:
均值= np
方差= np(1-p)
均值是什麼意思?均值是指你進行 n 次嘗試時的期望(平均)成功次數。如果每次嘗試成功的概率為 p,那麼可以說 n 次嘗試的成功次數為 np。
方差又是什麼意思?它表示真實的成功嘗試次數偏離均值的程度。為了理解方差,讓我們假設 n=1,那麼等式就成了「方差= p(1-p)」。那麼當 p=0.5 時(正面和背面向上的概率一樣),方差最大;當 p=1 或 p=0 時(只能得到正面或背面中的一種),方差最小。
回來繼續建模
現在我們已經理解了二項分布,接下來回到我們之前的問題。首先讓我們計算蠕蟲的牙齒的期望數量:
有了均值,我們可以計算 p 的值:
均值 = np
5.44 = 10p
p = 0.544
注意,這裡的 n 是指在蠕蟲中觀察到的最大牙齒數。你可能會問我們為什麼不把蠕蟲總數(即 100)或總事件數(即 11)設為 n。我們很快就將看到原因。有了這些數據,我們可以按如下方式定義任意牙齒數的概率。
鑒於牙齒數的取值最大為 10,那麼看見 k 顆牙齒的概率是多少(這裡看見一顆牙齒即為一次成功嘗試)?
從拋硬幣的角度看,這就類似於:
假設我拋 10 次硬幣,觀察到 k 次正面向上的概率是多少?
從形式上講,我們可以計算所有不同 k 值的概率
。其中 k 是我們希望觀察到的牙齒數量。
是第 k 個牙齒數量位置(即 0 顆牙齒、1 顆牙齒……)的二項概率。所以,計算結果如下:
我們的真實分布和二項分布的比較如下:
總結已有情況
現在回頭看看我們已經完成的工作。首先,我們理解了我們想要解決的問題。我們的問題是將特定類型的太空蠕蟲的牙齒數據統計用盡量小的數據量發回地球。為此,我們想到用某個已知分布來表示真實的蠕蟲統計數據,這樣我們就可以只發送該分布的參數,而無需發送真實統計數據。我們檢查了兩種類型的分布,得到了以下結果。
- 均勻分布——概率為 0.0909
- 二項分布——n=10、p=0.544,k 取值在 0 到 10 之間。
讓我們在同一個地方可視化這三個分布:
我們如何定量地確定哪個分布更好?
經過這些計算之後,我們需要一種衡量每個近似分布與真實分布之間匹配程度的方法。這很重要,這樣當我們發送信息時,我們才無需擔憂「我是否選擇對了?」畢竟太空蠕蟲關乎我們每個人的生命。
這就是 KL 散度的用武之地。KL 散度在形式上定義如下:
其中 q(x) 是近似分布,p(x) 是我們想要用 q(x) 匹配的真實分布。直觀地說,這衡量的是給定任意分布偏離真實分布的程度。如果兩個分布完全匹配,那麼
,否則它的取值應該是在 0 到無窮大(inf)之間。KL 散度越小,真實分布與近似分布之間的匹配就越好。
KL 散度的直觀解釋
讓我們看看 KL 散度各個部分的含義。首先看看
項。如果 q(x_i) 大於 p(x_i) 會怎樣呢?此時這個項的值為負,因為小於 1 的值的對數為負。另一方面,如果 q(x_i) 總是小於 p(x_i),那麼該項的值為正。如果 p(x_i)=q(x_i) 則該項的值為 0。然後,為了使這個值為期望值,你要用 p(x_i) 來給這個對數項加權。也就是說,p(x_i) 有更高概率的匹配區域比低 p(x_i) 概率的匹配區域更加重要。
直觀而言,優先正確匹配近似分布中真正高可能性的事件是有實際價值的。從數學上講,這能讓你自動忽略落在真實分布的支集(支集(support)是指分布使用的 X 軸的全長度)之外的分布區域。另外,這還能避免計算 log(0) 的情況——如果你試圖計算落在真實分布的支集之外的任意區域的這個對數項,就可能出現這種情況。
計算 KL 散度
我們計算一下上面兩個近似分布與真實分布之間的 KL 散度。首先來看均勻分布:
再看看二項分布:
玩一玩 KL 散度
現在,我們來玩一玩 KL 散度。首先我們會先看看當二元分布的成功概率變化時 KL 散度的變化情況。不幸的是,我們不能使用均勻分布做同樣的事,因為 n 固定時均勻分布的概率不會變化。
可以看到,當我們遠離我們的選擇(紅點)時,KL 散度會快速增大。實際上,如果你顯示輸出我們的選擇周圍小 Δ 數量的 KL 散度值,你會看到我們選擇的成功概率的 KL 散度最小。
現在讓我們看看
和
的行為方式。如下圖所示:
看起來有一個區域中的
和
之間有最小的距離。讓我們繪出兩條線之間的差異(虛線),並且放大我們的概率選擇所在的區域。
看起來我們的概率選擇也位於非常接近
和
有最低差異的區域(但並不是最低差異的區域)。但這仍然是一個很有意思的發現。我不確定出現這種情況的原因是什麼。如果有人知道,歡迎討論。
結論
現在我們有些可靠的結果了。儘管均勻分布看起來很簡單且信息不多而二項分布帶有更有差別的信息,但實際上均勻分布與真實分布之間的匹配程度比二項分布的匹配程度更高。說老實話,這個結果實際上讓我有點驚訝。因為我之前預計二項分布能更好地建模這個真實分布。因此,這個實驗也能告訴我們:不要只相信自己的直覺!
原文鏈接:http://www.thushv.com/machine-learning/light-on-math-machine-learning-intuitive-guide-to-understanding-kl-divergence/
推薦閱讀:
TAG:機器學習 | 人工智慧 | 深度學習DeepLearning |