標籤:

軟間隔SVM與表現定理(Representer Theorem)

這是對UC Berkley關於統計學習的課程CS281第22講做的筆記:

軟SVM

Hard支持向量機的表達式可以寫成

對超平面的優化問題是NP-hard的。

為了實現最小化凸函數

軟間隔可以寫成

這要求最優偏移變數滿足

軟間隔SVM的拉格朗日運算元

求偏導為零得到極值

所以,可以寫成對偶問題

C表示懲罰因子,C越大,對錯誤懲罰越大,C越小,愈加鬆弛。

如果把C換成v,引入變數

表徵離開決策邊界的距離,還是對拉格朗日因子求導,得到

所以,此新支持向量機的形式寫成

我們喚作它為v-SVM,其對偶形式就是

核邏輯回歸表現定理(Representer

Theorem):

其優化參數,寫成如上形式,如果轉化為拉格朗日表達式

如果一個再生核,有損失函數

模型訓練,希望得到損失函數最小

假設投影到子空間

由於

得證

證明了支持向量機的垂直表達部分分量為0.


推薦閱讀:

MATLAB 機器學習筆記--SVM
想研究下SVM,有什麼好的文章或者經驗之談可以分享下不?
來聊聊支持向量機
現在還有必要對SVM深入學習嗎?

TAG:機器學習 | SVM |