機器學習筆記四--邏輯回歸

機器學習筆記四--邏輯回歸

來自專欄 daacheng的Python學習總結

邏輯回歸(Logistic Regression)

一、小總結

二、構建模型(假設函數)

三、代價函數(Cost Function)

對於線性回歸模型,我們定義的代價函數是所有模型誤差的平方和。

如果按照誤差的平方和來構造邏輯回歸的代價函數的話, 我們得到的代價函數將是一個非凸函數(non-convexfunction),非凸函數不利於用梯度下降法求最小值。

所以我們要重新定義邏輯回歸的代價函數

四、梯度下降求導

推薦閱讀:

邏輯回歸——深度學習花書第五章(四)
邏輯回歸分類
Sklearn參數詳解—LR模型
教程丨機器學習演算法:從頭開始構建邏輯回歸模型
一種分類----邏輯回歸

TAG:機器學習 | Python | 邏輯回歸 |