線性回歸模型 為什麼要求隨機誤差的均值為0?
01-11
有沒有詳細點的線性回歸的教材
一些基本的本質問題整不明白,有的書直接說「有理由讓這個隨機誤差的均值為零」,數學基礎有限,自己不能一下想明白類似於這樣的問題
在線性模型 中,如果是常向量,則使用不同常向量估計出來的各個 間只差一個常向量,並無本質區別;如果包含待估計參數的一部分,則模型不是(locally)identifiable 的,即參數 到似然概率密度 的映射(在 的任何鄰域上都)不是單射。
方便起見假設整個都是待估計的參數。 直觀上,你只能估計到,而不能進一步分別估計出 和,從而會出現 但 ;數學上,可以計算一下Fisher information matrix:
它不是滿秩的,所以模型不是 identifiable 的。
Fisher information matrix 跟 identifiability 的關係大致可以這樣理解:maximum likelihood 估計
等價於
,
其中是數據的真實分布。另一方面,如果假設 ,則
其中第一步是大數定律,第二步是 Taylor 展開。因此,大致上,如果奇異,則 極值點不唯一,從而有使得 。
這裡有個更嚴格的證明:Identification in Parametric Models
可以把你認為存在的那個期望常數,放在常數項裡面
因為你希望估計出來的 y-bx 是無偏的,而且沒有 prior knowledge
線性回歸要求隨機誤差服從均值為0的正態分布,這個是前提也比較好理解。隨機誤差應該為正或為負的概率相等,期望自然應該為0。
ax+b+N(μ,Σ)=ax+(b+μ)+N(0,Σ)結果一樣的,用0計算明顯簡單了嘛 而且可以看到E(ax+b+ε)=E(ax+b) 這樣ax+b才有意義嘛
隨機誤差項不為零,說明它影響著Y的均值(或者說預測值),進而說明隨機誤差項中仍然存在可以影響Y的因素,比如遺漏的解釋變數。因此模型仍有改進的必要。
推薦閱讀: