概率分布的自由度是怎麼得來的?如何理解其含義?

T分布 怎麼理解given the mean, only n-1 observation can be unique.

不明白為什麼只有n-1是獨特的 平均數又不一定和哪個觀測值一樣

搞不懂各種分布計算自由度的含義 每次都靠背 理解不深刻


自由度經常被解釋為可以自由變化的變數數量。而在一些原本完全自由的變數上約束它們的通常是一些線性約束a_1X_1 + ... a_nX_n = k,那麼自由度與線性約束到底是怎麼在分布中發揮作用的呢?我們可以從隨機向量的標準化過程中遇到的麻煩看出其意義。

假設檢驗中喜歡構造統計量在原假設成立下服從某種標準化分布,這樣多元隨機變數的標準化就很重要了。一元隨機變數標準化形如

Y = frac{X-E(X)}{sigma(X)}

st

E(Y) = 0

var(Y) = 1

而多元的隨機向量則應當標準化為

E(Y)= (0,0,...,0)^T

Sigma(Y) = I

其中I是單位矩陣。

標準化為這種形式的目的之一是之後容易導出服從卡方分布的統計量。回憶其定義

Y=X_1^2 + ... + X_n^2

X sim N(0,1) quad i.i.d

Y sim chi^2(n)

X是多元正態分布的隨機向量,則上述標準化後求平方和就直接是服從等於變數個數的自由度的卡方分布統計量。若X各分量漸進服從正態分布,也可能可以用此法搞出與前面同分布的統計量,如多項分布。

那麼如何到底如何進行標準化?在協方差矩陣滿秩的情況下,有分解為

Sigma = PLambda P^T

其中P為特徵向量按列排列的某一正交矩陣,Lambda為對應的特徵值構成的對角矩陣。

因為Lambda是對角矩陣,所以可以直接定義出它的唯一開方Lambda^{frac{1}{2}}Lambda^{frac{1}{2}} = Lambda

A=(PLambda^{1/2})^{-1}

由協方差在線性變換下的關係Sigma(AX) = ASigma(X)A^T

Sigma(Y)=ASigma(X)A^T=Lambda^{-1/2}P^{-1}PLambda P^T P Lambda^{1/2} = I

注意用到了正交矩陣P P^T = I等性質

所以一個可以進行標準化的變換就是

Y = (PLambda^{1/2})^{-1} (X-E(X))

如果X還是正態分布的話,Y^TY=(X-E(X))^TSigma^{-1}(X-E(X)) sim chi^2(n),就是我們上面提到的各種標準化分布中的一個。獨立性檢驗之類的問題也容易轉化到這上面來。

然而這上面卻有一個限制,協方差矩陣Sigma滿秩。這是必然的嗎?當然不,隨機變數之間的線性組合關係會直接反應在協方差矩陣的秩的下降上。如給定X_n = sum_{i=1}^{n-1} X_i這個線性約束。則cov(X_n,X_j) = sum_{i=1}^{n-1} cov(X_i,X_j)。也就是說可以通過每行/列去減第n行/列,可以將第n行/列上的全部元素消為0。作為初等行列變換,變換前後的矩陣具有相同的秩,則說明原來的協方差矩陣rank(Sigma) le n-1.。所以不滿秩。

協方差(對稱)矩陣不滿秩情況下,仍可以做分解,

Sigma = P Lambda P^T

不過此時特徵值矩陣Lambda對角線上有0。

Q(Lambda)為將特徵值對角矩陣上所有非零元取倒數再取根號的結果。於是有

Q(Lambda)Lambda Q(Lambda) = I_r

其中I_r是單位矩陣替換了右下n-r個1為0的矩陣。

定義變換矩陣為M = (PQ(Lambda))^T

於是變換後協方差為

Sigma(Y) = Sigma(MX) = Q(Lambda) ^T P^T P Lambda P^T P Q(Lambda) = I_r

也就是說,由於不滿秩,我們轉而只能使用I_r這樣對角線上「1數量不滿」的矩陣作為標準化後的協方差矩陣。

此時與(X-E(X))^T Sigma^{-1} (X-E(X))對應的形式為(X-E(X))^T PQ(Lambda) Q(Lambda) P^T  (X-E(X)) sim chi^2(r)

回過頭來,協方差矩陣的某些行列全為0(如I_r中右下角的元素就是如此)意味著什麼呢。這意味著對應的隨機變數實際表示一個常數。於是我們發現,受約束的隨機變數向量的約束可以體現為協方差矩陣的秩的下降,而這又意味著標準化中會有幾個隨機變數只能被標準化為0常量,而不是本來想要的期望為0,方差為1的不相關隨機變數。

這對於各種構造成服從或漸進服從卡方分布的統計量(以及包含這種統計量在內的其他服從t分布或F分布的隨機函數)是決定性的——理想中,我們想把它們全標準化成不相關0,1隨機變數,然後利用最自然的卡方分布(自由度等於標準化前的變數個數)——然而這個步驟做不下去,只能修正後採用其他自由度的卡方分布。


自由度,通俗的說就是可以自由變動的量的個數。

考慮一下卡方分布的來歷。如果我們按照這種順序來排列正態分布,卡方分布,t分布,F分布,你會發現,正態分布是沒有自由度的,但後面兩者都有。於是你會想到,為什麼會這樣呢?

卡方分布的來歷是對幾個服從標準正態分布N(0,1)【期望值為零,方差為一的正態分布】的變數的平方求和【先各自平方,再求和】。有幾個這樣的變數,卡方分布的自由度就是幾。這是因為我們第一句話就說自由度是可以自由變動的量的個數。

t分布是由一個標準正態分布和一個卡方分布組合的函數形式構成。它的自由度取決於那個卡方分布的自由度,因為正態分布沒有自由度一說。

F分布是由兩個卡方分布構成,因此有兩個自由度。

有一個比較特殊的是:我姑且把它稱之為最後一個變數不能變現象。比如,我們對(Xi-X的期望)的平方求和【從1到i】。你本能覺得自由度是n,其實是n-1.因為你的x的期望是定的,前面有n個數可以變,但一旦定下來之後,最後一個數就不能變了,因為期望是定的。這整個是樣本中產生的,和總體沒有關係。


關鍵詞:自由度,演繹,不規範說明

鏈接:概率分布的自由度是怎麼得來的?如何理解其含義?

時間:2014年3月6日

解釋自由度,要理解獨立變數的產生,引入方程,最後解釋自由度。

1. 獨立變數的產生。

假設有x,y,z,三個變數,獨立,因此互不影響;

因此{x}=x1,x2,x3……;{y},{z}類似

2. 引入方程:

但是他們存在一些約束條件,比如:

x1+y1+z1=A1

x2+y1+z1=A2

……

當存在:

x1+y1+z1=A1

x2+y2+z2=A2

x3+y3+z3=A3

且A1≠A2≠A3

三個不同的方程,有三個未知數,因此有唯一解。(高中內容,如果高中同學不動,我再解釋)(這條定理也是經濟學的洛必達定理)

因此你覺得這些變數是否自由?答案是非常不自由,只能有唯一解。因此我們定義為:自由度為=0,自由的程度為0.

我們再看:

x1+y1+z1=A1

x2+y2+z2=A2

且A1≠A2

你看看他們之間是否有約束?

我轉換一下:

x1+y1=A1-z1

x2+y2=A2-z2

每個確定的z,是否就意味著x和y必須是唯一解。

因此除了z只有,其他兩個就不自由了,因此只有一個變數是完全只有的,因此我們定義自由度=1,即自由程度上只有一個變數完全自由。

因此,我們發現,只有有一個變數完全自由,那麼自由度=1,以此類推。

這類假定的條件是,一個變數有解的情況下,只會存在完全自由和完全不自由的兩種狀態。這裡我忘記怎麼說明了,數學系的來補充下。

因此,我們可以推導,把獨立變數總數減去 完全不自由的變數數目,就是 完全自由的變數數目,就是自由度。

因此自由度衡量了一個函數的變數波動範圍

如果在一個三維空間中,自由度為3,就是 函數可以 完全表示空間所有點

但是

只是一個面???

x1+y1=A1-z1

x2+y2=A2-z2

就是這樣,我覺得最好數學專業來回答一下,最好,而且他們的證明很牛,比我這不規範的演繹好幾百倍。


自由度似乎是一個常見的話題,前面的回答都挺好,我也來湊個熱鬧回答一下。因為字數比較多,這裡的編輯功能又比較弱,我寫成了單獨的文章發表在我的專欄中,請點擊鏈接知乎專欄查看。


根據謝宇老師《回歸分析》一書中的介紹:自由度是通過樣本統計量來估計總體參數時必須涉及的一個基本概念,指的是計算樣本統計量時能自由取值的數值個數。當做t檢驗時,是用樣本方差去對總體方差進行估計。需要變數減去觀測樣本的均值,故而樣本中只有n-1個自由取值。確定了n-1個數,基於均值,第n個數就確定了。所以一般來講,喪失的自由度數目也就是需要估計的參數的數目,或者約束條件的數目。祝好運。

轉載來自人大經濟論壇:xddlovejiao1314


對任意的x1-xn, 服從i.i.d. 為方便打字, 設樣本平均值為xm, 整體均值為u, 我們有

E Σ(xi-xm)^2=E Σ[(xi-u)-(xm-u)]^2=E Σ(xi-u)^2 - n(xm-u)^2=ΣVar(x) - nVar(xm)=nσ^2 - σ^2=(n-1)σ^2.

這就是為什麼我們求方差的無偏量估計要除以n-1而不是n.

另外given the mean的意思是給定均值的情況下,不是說均值等於某個觀測值,那麼當均值給定的情況下,你只能自由選取n-1個值是可變的,而第n個值可以表示為xn=nxm - x1-…-x(n-1)是唯一的.


人過中年,記憶衰退,居然忘了自己曾經答過這個問題,在另一個同樣的問題下煞有介事地又答了一遍...真是話嘮啊

怎麼理解統計學中「自由度」這個概念? - 李曉煦的回答


這個和線性代數里的自由變數是一樣一樣的道理


推薦閱讀:

為什麼P(A|B) = P(A)可以推出事件A和B相互獨立?
怎樣通俗地理解分布函數?
如果子女都隨父姓 如何保證稀有姓氏的傳承?
概率密度函數在某一點的值有什麼意義?

TAG:數學 | 統計 | 概率論 |