如何通俗易懂地解釋支持向量回歸(support vector regression)?


svr的優化目標是l2 regularization+ c*epsilon-sensitive error. 前者正則化是為了控制模型複雜度不必多說,後者epsilon-sensitive error是理解svr的關鍵,但其實對照linear regression的損失函數也很容易,就如下圖所示

左邊是svr 的loss function,右圖是lr的(圖片來自coursera 林軒田機器學習技法)左圖中,epsilon描述的是紫色區域的寬度,定義這個區域內的點損失為0,這個區域以外的點的損失是點到區域邊界的距離,這些區域外的點(或者有可能邊界上的點)就是svr 的support vector。所以大致上來說,svr就是要找一條線,忽略它周圍的點,對剩餘的點進行回歸。

參考資料:林軒田coursera機器學習技法

沒錯我就是軒田老師的腦殘粉啦#_#


第一個: kernel ,將原始數據空間映射到 高維度空間 ;

第二個: 直接對照 Linear Regression 和 SVR 的表達式,svr 是 有約束條件的優化問題,它的約束條件就是 svr的特殊之處 ; 它的約束條件 使得模型尋找出一個 條狀區域 而不是單純的一條線~~


推薦閱讀:

作為數據挖掘研究生需要補充哪些數學知識?
convex optimization 可以用來做哪些有意思的事情(可以是實驗性質)?
機器學習下的各種norm到底是個什麼東西?
學習程序資料推薦?
在人工智慧和機器學習領域,作為一個產品經理可以做什麼?

TAG:人工智慧 | 數據挖掘 | 機器學習 | SVM | 統計推斷 |