台灣李宏毅老師機器學習ML 第一課 回歸Regression

原文鏈接:台灣李宏毅老師機器學習ML 第一課 回歸Regressionmp.weixin.qq.com圖標

三個步驟:1、選擇模型(Model)2、評估函數好壞 3、找到最好的函數

應用舉例

股票預測 自動駕駛輸入圖像信息輸出方向盤角度 推薦系統

寶可夢(神奇寶貝)進化Combat Power(CP)值預測

步驟 1、Model

尋找一個函數集稱作為Model,如圖線性模型有b,w兩個參數可為任意值

步驟2、函數好壞評價

10個寶可夢數據作為訓練數據

定義function的好壞要用到損失函數(Loss Function:L);

損失函數的輸入是一個函數,輸出是這個函數有多壞L(f)=L(w,b)相當于衡量一組參數w,b的好壞。常見的Loss Function為最小二乘

步驟3、找到最好的函數

相當於窮舉(暴力求解)所有的w,b帶入方程L找到哪一組(w,b)最好。常用尋找方法梯度下降

梯度下降(但是可能是局部最優解,在Linear Regression中不影響)

當只有w一個參數時,看L(w)的導數正負,以一個學習率迭代更新w

對於有兩個參數時

如果Loss Function是下圖樣子

那麼得到結果和初始值w,b的選取有很大關係。

但對於線性回歸(linear regression),Loss Function是收斂的(convex),因為它沒有局部最優函數類似於等高線形狀

對於複雜問題回歸要選擇複雜的Model例如增加二次項三次項四次項等

複雜的Model會使平均訓練誤差變小,但我們關心的是模型預測能力,複雜Model的測試誤差反而可能會變大。這是因為複雜Model可能會導致過擬合

l 一個越複雜的模型會在訓練集上減小誤差

l 在測試集複雜模型不一定會有好的結果(overfitting)

訓練數據的數量對最後預測結果影響很大越大越好,模型選擇也很重要。

Regularization 不需要考慮b,不影響平滑程度

W越接近0,Loss Function就越平滑

Regularization實驗結果:我們希望函數平滑,但不要太平滑

視頻見原文鏈接

推薦閱讀:

【鄒大濕】2018 AI 產品趨勢(下):喧囂的追風者和靜默的收割人
小派看數據(五):如何用邏輯回歸模型預測宮頸癌的致病因素
人工智慧將改變你的衣食住行甚至工作!這些你能接受嗎!
「人工智慧」下的「失業焦慮」
阿爾法狗再進化 未來會不會統治人類 ?

TAG:機器學習 | 人工智慧 | 深度學習DeepLearning |