3 支持向量機-線性可分(優化函數的求解)
04-20
接上文2 支持向量機-線性可分(數學的表達方式)
對於線性可分,我們已經得出了其最優化的問題的數學公式描述:
為什麼要將max轉化為min呢?這是因為凸優化的基本公式是求min,不是求max。
如何求解此問題,是本節需要解決的問題。
為了簡化公式的求解,引入拉格朗日函數L,我們稱上面的公式為原始問題,拉格朗日函數L為對偶問題,引入L如下:
那麼原始問題和對偶問題有什麼關係呢?可以初略認為原始問題和對偶問題經過運算後,得到的解w,b是一樣的。由於原始問題不好求解,故對偶問題的引入是為了簡化解的求解過程。對偶問題引入了ai,其值始終是大於等於0的。
同時我們可以發現下面這個規律:
所以我們現在就只需要求解對偶問題L就能得到解啦!!!!
那如何求解L呢?
我們可以發現L是凸函數,故對L求w和b的偏導,另其值為0,就能夠求解w和b的值(w,b是用a表示的),並將求回的值帶入L,可得到如下結論:
所以就有:
由於在前面計算過程中,計算出了一個約束條件:
那如何求解a呢?說來也奇怪,就是解方程下面的方程,求出一個a的解。
最後就可以通過a求出w和b:
最終完成此線性可分支持向量機wx+b=0的求解。
推薦閱讀:
※一樣的打遊戲,不一樣的酷
※機器學習基石筆記1:基礎概念
※關於專欄文章說明
※深入機器學習系列21-最大熵模型
TAG:機器學習 |