邏輯回歸1:(分類與概率)

先來3篇很厲害的博文,認真讀完以後會有一個對邏輯回歸比較清晰的理解,閱讀順序如下,我是用最後一篇作為梳理,因為前兩篇寫的很細緻,信息量比較大,顯的脈絡不是特別清晰,看完前兩篇用最後一篇的2.1進行梳理,然後有興趣可以繼續看這篇的其他內容

機器學習系列(1)_邏輯回歸初步 - CSDN博客

機器學習系列(2)_從初等數學視角解讀邏輯回歸 - CSDN博客

【機器學習演算法系列之二】淺析Logistic Regression


了解邏輯回歸

  • 邏輯回歸是數學家為了得到[0,1]之間輸出,而使用線性回歸作為邏輯函數的輸入,所創造出來的東西
  • 邏輯函數(logistic function)簡單的邏輯函數表達式為: P=frac{1}{1+e^{-z}} ,圖形如下圖:

邏輯函數圖像

通過曲線圖可以看到邏輯函數是一個簡單的S函數(Sigmoid function),所以有些書里直接管它叫Sigmoid函數,也有的書里管邏輯函數叫對數幾率函數,這個原因會在文末揭曉。

  • 線性回歸(Linear regression),一般表達式為: y=b+w_{1}x_{1}+w_{2}x_{2}+... ...+w_{n}x_{n} ,為簡便也可以將b寫入w中,將公式簡寫為: y=W^{T}X ,其中w={ w_{0},w_{1},w_{2},...}, 且w_{0} =b, x_{0} =1。
  • 最後把線性回歸作為邏輯回歸的輸入,從而它們組合在一起就有了邏輯回歸, P=frac{1}{1+e^{-z}} ,z= w^{T}x

使用邏輯回歸的目標

  1. 擬合決策邊界:找到一個有足夠區分度的決策邊界,假設輸入的特徵向量為x∈R,Y取值為0,1。那麼決策邊界可以表示為 b+w_{1}x_{1}+w_{2}x_{2} =0,當存在例子:h_{w}(x)=w_{0}+w_{1} x_{1}+w_{2}x_{2}>0 時可以判斷它屬於1類。其實只要 w^{T}x 足夠複雜也可以完美擬合非線性的決策邊界,例如: h_{w}(x)=w_{0}+w_{1} x_{1}+w_{2}x_{2}+w_{3}x_{3}^2+w_{4}x_{4}^2 ,其中 w_{0}=0,x_{1}=0,x_{2}=0,w_{3}=1,w_{4}=1 ,那麼這函數擬合的就是一個圓形的決策邊界。

2. 建立決策邊界與概率的聯繫:由於輸出結果為[0,1]之間,所以可以建立決策邊界與概率的聯繫,下面詳細講下這點:

先引入概率P,邏輯函數可以通過擬合決策邊界 W^{T}X=0 把事件 Y 分為 Y=0Y=1 兩類,其中 Y=1 類事件的發生概率為 P,P in [0,1] ,而在邏輯函數 P=frac{1}{1+e^{-z}}z in (+ infty ,- infty ) ,顯然概率 P 和z的範圍, z 不是概率 P ,在它們之間建立關係需要一個映射即函數,這種映射可以使得在區間 [0,1] 之間的概率 P 轉化成區間在(+ infty ,- infty )的 z 上,且因為 Y=1 事件的概率為 0.5Y=0 事件的概率也是 0.5 ,說明事件正好在決策邊界線上,而決策邊界正是 w^{T}x=0 ,即 z=0 時概率 P=0.5

總結一下映射關係:

  1. P in [0,1]
  2. z in (+ infty ,- infty
  3. p=0.5時z=0

這不禁令人想到另一個爺爺輩的函數,logit function函數:y=log( frac{x}{1-x}

所以我們可以說 z=log(frac{P}{1-P}) (這裡的P是概率),反過來也就是 P=frac{1}{1+e^{-z}} (這裡的P還是概率),而邏輯函數的公式正好就是 P=frac{1}{1+e^{-z}} (這裡的P是邏輯函數輸出值),所以我們可以把兩個P劃等號,即把邏輯回歸的輸出值當做是一個概率

在概率論中P是事件發生的概率,1-P是事件不發生的概率, frac{P}{1-P} 就是發生比(odds) 也叫幾率z=log(frac{P}{1-P}) 就是對數發生比(log-odds,或logit)也叫對數幾率,這就是為什麼邏輯函數也叫對數幾率函數,同是邏輯回歸也叫對數幾率回歸的原因。


—— 完 ——

推薦閱讀:

正經機器學習之小巧的流程可視化機器學習工具
谷歌今日上線基於TensorFlow的機器學習速成課程(免費中文版)
機器學習入門:邏輯回歸案例
推薦系統:經典方法
一文弄懂神經網路中的反向傳播法——BackPropagation

TAG:機器學習 | 數據分析 | 邏輯回歸 |