標籤:

(No.35)SVM(支持向量機)--知識串聯

1 最大化分隔的直觀解釋和統計支持

(遠離敏感點,結構風險最小化(SRM),最大間隔分離超平面的存在具有唯一性)

2 目標的設定。

3 在數學上的表達

4 轉換問題為二次凸優化。

(滿足KKT條件,拉格朗日法,對偶問題)

得到目標:(在導數為0,或約束邊緣上取得極值)

5 加入鬆弛係數,滿足邊緣附件不好區分點的分類。

6 加入核函數

(低維--->高維,線性不可分-->線性可分)

7 常見核函數

(RBF可映射到無窮維,映射能力很強)

8 核函數對比

9 核函數選取經驗

下面是吳恩達的見解:

1. 如果Feature的數量很大,跟樣本數量差不多,這時候選用LR或者是Linear Kernel的SVM。

2. 如果Feature的數量比較小,樣本數量一般,不算大也不算小,選用SVM + Gaussian Kernel。

3. 如果Feature的數量比較小,而樣本數量很多,需要手工添加一些feature變成第一種情況。

10 一些參考資料:

1《統計學習方法》李航[著]

2 blog.csdn.net/macyang/a

支持向量機通俗導論(理解SVM的三層境界)。

3 zhihu.com/question/5858

拉格朗日對偶性的理解。

4 cnblogs.com/JustForCS/p

對偶問題的詳細解讀。

5 zh.wikipedia.org/wiki/%

拉格朗日乘數-維基百科

6 blog.csdn.net/philthink

約束問題&凸二次規劃

7 https://zh.wikipedia.org/wiki/卡羅需-庫恩-塔克條件

KKT條件(非線性規劃問題能有最優化解法的一個必要和充分條件)

8 bytesizebio.net/2014/02

圖示和視頻演示比較不錯。

9 v.qq.com/x/page/k05170n

空間轉換後變得線性可分的視頻演示。

10 v.qq.com/x/cover/m05175

svm是如何工作的,視頻講解推導、原理。

11 cnblogs.com/daniel-D/p/

svm的推導過程。

12 blog.csdn.net/szlcw1/ar

svm常見問題,可以輔助理解。

13 zhihu.com/question/2188

svm核函數選取的討論。

14 zhihu.com/question/3037

15 zhihu.com/question/2462

16 zhuanlan.zhihu.com/p/29

核函數的說明

17 blog.csdn.net/wsj998689

18 blog.csdn.net/batuwuhan

常見核函數匯總

推薦閱讀:

Spotify的每周發現(Weekly Discovery):機器學習是如何找到你喜歡的音樂的
Coursera Machine Learning疑惑與解答-第0篇-Week2 Assignments
吳恩達導師Michael I.Jordan學術演講:如何有效避開鞍點(視頻+PPT)
從建立清晰的步驟開始——Machine Learning Project Checklist
ICLR 2018最佳論文出爐:Adam收斂、球形CNN、元學習備受矚目

TAG:機器學習 | SVM |