機器學習筆記四--邏輯回歸
08-15
機器學習筆記四--邏輯回歸
來自專欄 daacheng的Python學習總結
邏輯回歸(Logistic Regression)
一、小總結
二、構建模型(假設函數)
三、代價函數(Cost Function)
對於線性回歸模型,我們定義的代價函數是所有模型誤差的平方和。
如果按照誤差的平方和來構造邏輯回歸的代價函數的話, 我們得到的代價函數將是一個非凸函數(non-convexfunction),非凸函數不利於用梯度下降法求最小值。
所以我們要重新定義邏輯回歸的代價函數
四、梯度下降求導
推薦閱讀:
※邏輯回歸——深度學習花書第五章(四)
※邏輯回歸分類
※Sklearn參數詳解—LR模型
※教程丨機器學習演算法:從頭開始構建邏輯回歸模型
※一種分類----邏輯回歸