如何通俗易懂地解釋支持向量回歸(support vector regression)?
01-06
svr的優化目標是l2 regularization+ c*epsilon-sensitive error. 前者正則化是為了控制模型複雜度不必多說,後者epsilon-sensitive error是理解svr的關鍵,但其實對照linear regression的損失函數也很容易,就如下圖所示
參考資料:林軒田coursera機器學習技法
沒錯我就是軒田老師的腦殘粉啦#_#第一個: kernel ,將原始數據空間映射到 高維度空間 ; 第二個: 直接對照 Linear Regression 和 SVR 的表達式,svr 是 有約束條件的優化問題,它的約束條件就是 svr的特殊之處 ; 它的約束條件 使得模型尋找出一個 條狀區域 而不是單純的一條線~~
推薦閱讀:
※作為數據挖掘研究生需要補充哪些數學知識?
※convex optimization 可以用來做哪些有意思的事情(可以是實驗性質)?
※機器學習下的各種norm到底是個什麼東西?
※學習程序資料推薦?
※在人工智慧和機器學習領域,作為一個產品經理可以做什麼?