SVM Regularization and non-separable case
來自專欄 機器學習
到目前為止,我們介紹SVM的推導都是假設了數據是線性可分的,將數據通過 映射到高維特徵空間會增加數據可分的概率,但是不能保證映射之後的數據都是可分的。同時由於異常點的影響,我們並非必須找到一個嚴格的分離超平面。例如如下圖所示,左圖是出的是optimal margin classifier, 當訓練集中出現一個異常點在右圖中的左上方,會導致decision boundary發生很大的變化,這樣產生的classifier會給出很小的margin,結果是不好的。
為了讓演算法能夠解決非線性可分數據集,同時對異常點敏感度減小,我們採用 regularization重寫優化問題如下:
這樣就可以允許部分樣例的函數間隔小於1,如果一個樣本的functional margin是 ,那麼在目標函數上就會有 的增長作為懲罰,參數C控制著兩個目標之間的相對權重:
- 盡量使得 足夠小
- 保證絕大部分的樣例函數間隔
與之前相同,構造optimization problem的Lagrangian:
其中拉格朗日乘子為 ,同樣的我們構造對偶問題
針對參數 求取 的偏導數的到:
- ,即得到 (1)
- (2)
- ,即得到 (3)
將(1)式子代入得到
即可得到對偶問題的優化函數為:
可以看出與我們之前的對偶問題的區別僅僅在於限制條件的不同:
增加了 的限制
而KTT dual-complementarity condition變為:
推薦閱讀:
※達觀數據推薦演算法實現:協同過濾之item embedding
※EdX-Columbia機器學習課第11講筆記:最大間隔分類器和SVM
※支持向量機技術在搜索引擎中的地位重要嗎?應用廣泛嗎?
※KNN 與 SVM 的區別是什麼?
※Python3《機器學習實戰》學習筆記(八):支持向量機原理篇之手撕線性SVM