標籤:

3 支持向量機-線性可分(優化函數的求解)

接上文2 支持向量機-線性可分(數學的表達方式)

對於線性可分,我們已經得出了其最優化的問題的數學公式描述:

為什麼要將max轉化為min呢?這是因為凸優化的基本公式是求min,不是求max。

如何求解此問題,是本節需要解決的問題。

為了簡化公式的求解,引入拉格朗日函數L,我們稱上面的公式為原始問題,拉格朗日函數L為對偶問題,引入L如下:

那麼原始問題和對偶問題有什麼關係呢?可以初略認為原始問題和對偶問題經過運算後,得到的解w,b是一樣的。由於原始問題不好求解,故對偶問題的引入是為了簡化解的求解過程。對偶問題引入了ai,其值始終是大於等於0的。

同時我們可以發現下面這個規律:

所以我們現在就只需要求解對偶問題L就能得到解啦!!!!


那如何求解L呢?

我們可以發現L是凸函數,故對L求w和b的偏導,另其值為0,就能夠求解w和b的值(w,b是用a表示的),並將求回的值帶入L,可得到如下結論:

所以就有:

由於在前面計算過程中,計算出了一個約束條件:


那如何求解a呢?說來也奇怪,就是解方程下面的方程,求出一個a的解。

最後就可以通過a求出w和b:

最終完成此線性可分支持向量機wx+b=0的求解。


推薦閱讀:

一樣的打遊戲,不一樣的酷
機器學習基石筆記1:基礎概念
關於專欄文章說明
深入機器學習系列21-最大熵模型

TAG:機器學習 |