EM演算法與混合高斯
極大似然估計
考慮一個高斯分布 ,其中 。樣本集 中每個樣本都是獨立的從該高斯分布中抽取得到的,滿足獨立同分布假設。
因此,取到這個樣本集的概率為:
我們要估計模型參數向量 的值,由於現在樣本集 已知,所以可以把 看作是參數向量 的函數,稱之為樣本集 下的似然函數 。
極大似然估計要做的就是最大化該似然函數,找到能夠使得 最大的參數向量 ,換句話說,就是找到最符合當前觀測樣本集 的模型的參數向量
為方便運算,通常我們使用似然函數的對數形式(可以將乘積運算轉化為求和形式),稱之為「對數似然函數」。由於底數大於 的對數函數總是單調遞增的,所以使對數似然函數達到
最大值的參數向量也能使似然函數本身達到最大值。故,對數似然函數為:
參數的估計值
混合高斯模型及其求解困境
混合高斯模型是指由 個高斯模型疊加形成的一種概率分布模型,形式化表示為:
其中,參數 ,並且有 , 代表單個高斯分布在混合高斯模型中的權重。
現在我們假設觀測樣本集 來自於該混合高斯模型,滿足獨立同分布假設。為了估計出該混合高斯模型的參數 ,我們寫出這 個數據的對數似然函數:
我們的目標就是要通過最大化該似然函數從而估計出混合高斯模型的參數
觀察該式,由於對數函數中還包含求和式,因此如果仿照極大似然估計單個高斯分布參數的方法來求解這個問題,是無法得到解析解的。所以我們要尋求更好的方式來解決這個問題。
EM演算法基本過程
考慮一個樣本集 是從某種分布(參數為 )中觀測得到的,我們稱之為不完全數據(incomplete data)。我們引入一個無法直接觀測得到的隨機變數集合 ,叫作隱變數。 和 連在一起稱作完全數據。我們可以得到它們的聯合概率分布為:
我們定義一個新的似然函數叫作完全數據似然:
我們可以通過極大化這樣一個似然函數來估計參數 。然而Z是隱變數,其分布未知上式無法直接求解,我們通過計算完全數據的對數似然函數關於 的期望,來最大化已觀測數據的邊際似然。我們定義這樣一個期望值為 函數:
其中, 表示當前的參數估計值, 是觀測數據,都作為常量。 是我們要極大化的參數, 是來自於分布 的隨機變數。 是未觀測變數的邊緣分布,並且依賴於觀測數據 和當前模型參數
演算法中的 就是指上面計算期望值的過程。
則是極大化這樣一個期望,從而得到能夠最大化期望的參數
重複執行 和 直至收斂。
收斂性證明
(略)
EM演算法應用於高斯混合模型
回到高斯混合模型的參數估計問題,我們將樣本集 看作不完全數據,考慮一個無法觀測到的隨機變數 ,其中 ,用來指示每一個數據點是由哪一個高斯分布產生的,(可以類比成一個類別標籤,這個標籤我們是無法直接觀測得到的)。比如, 表示第 個樣本點是由混合高斯模型中的第 個分量模型生成的。
那麼完全數據 的概率分布為:
在混合高斯模型問題中, 是指第 個模型的先驗概率,也就是其權重 。給定樣本點來源的高斯分布類別後, 可以寫成對應的高斯分布下的概率密度形式,即
根據貝葉斯公式,又可以得到隱變數的條件概率分布:
因此,我們可以寫出相應的 函數:
其中,
式可以按照同樣的操作技巧進行分解,故不贅述。
並且,我們用 代替 來簡化我們的表達式。
因此, 函數可以化簡為:
這樣,我們可以對包含參數 和參數 的項分別進行最大化從而得到各自的估計值。
估計參數
這個問題可以表示為下面的約束最優化問題:
引入拉格朗日乘子 ,構建拉格朗日函數:
對參數 求偏導並令其為 :
得到:
代回約束條件,有:
在之前的推導中,我們得到過這樣一個公式,即隱變數 的條件分布:
同樣用 代替 來簡化我們的表達式,得到:
故將其代回之前的式子,得到:
故,
在估計剩下的參數之前,先補充一下一會要用到的線性代數知識。
【知識點~Matrix Algebra】
矩陣的跡等於矩陣的主對角線上元素之和,且有以下性質
表示矩陣 的行列式,當 可逆時,有以下性質
表示矩陣 的第 行, 列的元素,給出矩陣函數求導的一些公式:
估計參數
對於 維高斯分布來說,參數 ,且:
估計參數
忽略其中的常數項(因為常數項在求導之後為 ),上式化簡為:
關於 求導,得到:
因為協方差矩陣 為對稱陣,故 ,因此,上式繼續化簡為:
令該式為 ,得到:
估計參數
忽略其中的常數項(因為常數項在求導之後為 ),上式化簡為:
考慮方程 為上式中 內部的式子,即:
關於 求導數,得到:
令該導數值為 ,得到:
解得 ,即:
推薦閱讀:
※手把手教你快速構建自定義分類器
※2017年歷史文章匯總|機器學習
※大數據看190部國產片,年輕人的觀影口味發生了這些變化
※通俗易懂說數據挖掘十大經典演算法
※數據挖掘和網路爬蟲有什麼關聯區別?