標籤:

邏輯回歸之sigmoid函數追本溯源

邏輯回歸解決的是分類問題。為什麼選擇sigmoid函數呢,有人說是為了將線性回歸的值壓縮到0-1之間,但是符合這個條件的函數有很多,為什麼偏偏選擇了sigmoid函數。

一句話解釋:因為作為廣義線性模型(GLM)中的一類,邏輯回歸的連接函數的 canonical 形式就是 sigmoid函數

1、指數族分布

指數族分布 (The exponential family distribution),區別於指數分布(exponential distribution)。在概率統計中,若某概率分布滿足下式,我們就稱之屬於指數族分布:

統計中很多熟悉的概率分布都是指數族分布的特定形式,如伯努利分布,高斯分布,多項分布, 泊松分布等

2.廣義線性模型(GLM)

指數家族的問題可以通過廣義線性模型來解決。如何構建GLM呢?在給定 x 和參數後, y 的條件概率 p(y|x;	heta) 需要滿足下面三個假設:

  1. p(y|x;	heta) 服從指數族分布
  2. 給了 x , 我們的目的是為了預測 T(y) 在條件 x 下的期望。
  3. eta=	heta^{T}x ,即 etax 是線性的

3、伯努利分布的指數族形式

伯努利分布就是我們常見的0-1分布,即它的隨機變數只取0或者1,各自的頻率分別取 1-phiphi ,我們數學定義為: p(y|phi)=phi^{y}*(1-phi)^{1-y};x=0或1

將伯努利分布寫成指數族形式則有:

p(y|phi)=phi^{y}*(1-phi)^{1-y} =e^{ylog(frac{phi}{1-Phi})+log(1-phi)}

其中

T(y)=y

eta=log(frac{phi}{1-phi})

a(eta)=-log(1-phi)

b(y)=1

4、邏輯回歸

考慮LR二分類問題,y∈0,1,因為是二分類問題,我們很自然的假設分類結果y服從伯努利分布。由上面的伯努利分布的指數族形式可知,其 T(y)=y ,這就意味著我們希望預測 h(x)=E[y|x;phi]

而根據伯努利分布期望性質,有

E[y|x;phi] = phi ,又由可知

phi=frac{1}{1+e^{-eta}}

因此,

h(x)=frac{1}{1+e^{-	heta^{T}x}}

至此,得到邏輯回歸的模型。

這裡有一篇文章寫得比較詳細,

曉雷:廣義線性模型(Generalized Linear Model)?

zhuanlan.zhihu.com圖標
推薦閱讀:

全面理解word2vec
【用Sklearn進行機器學習】第四篇 - 深入監督學習:隨機森林
如何測量這個世界的混亂-1-定義混亂
3 支持向量機-線性可分(優化函數的求解)

TAG:機器學習 |