方差分析之多重比較

歡迎關注我的微信公眾號——R語言醫學統計學,一起學習,一起交流。

在一個試驗中,有k個處理平均數間比較時,其全部可能的相互比較對數有k(k-1)/2個,這種比較是複式比較,亦稱多重比較(multiple comparisons)。

為什麼要做多重比較呢?

方差分析後做多重比較有很多好處:

  • 誤差由多個處理內的變異合併估計,自由度增大了,因而比較的精確度也增大了。
  • F檢驗顯著,說明可以判定多個處理間存在顯著的變異。因此方差分析後再做多重比較,稱為Fisher氏保護性多重比較(Fishers protected multiple comparisons)。
  • 如果有多個比較,不做F檢驗的情況下,很有可能有更多的比較是顯著的;做了F檢驗以後,顯著的平均數比較會相應減少。
  • 顯然,在無F檢驗保護時,設有4個處理(k=4),需要做6個比較,若各個處理間總體上並無差異,每一比較誤判為有差異的概率為0.05,則6個比較中至少有1個被誤判的概率為 1-(1-0.05)^6=0.2649

多重比較有多重方法,本次依次介紹LSD法Sidak法、Bonferroni法、Dunnett法、Tukey法、SNK 法、Duncan法等。

LSD法

LSD法全稱least significance difference,即最小顯著差異法。由Fisher最先提出,本質上是一種t檢驗。通常用於1對或者幾對專業上有特殊意義的樣本均數間的比較。

為了更好的理解LSD法的計算原理,我們首先回顧兩獨立樣本t檢驗的:

t=frac{ar{X_1}-ar{X_2}}{sqrt{S_c^2(frac{1}{n_1}+frac{1}{n_2})}}

其中 S^2_c兩個樣本的聯合估計的方差(滿足樣本方差齊的前提下),本質就是組內誤差的均方,該統計量服從自由度為N-2的t分布。

S^2_c=frac{(n_1-1)S^2_1+(n_2-1)S_2^2}{n_1+n_2-2}

與上述類似,LSD法也進行的是兩兩比較的t檢驗。所不同的是,在滿足方差齊性的前提下,LSD法採用所有樣本的聯合方差來估計均數差的標準誤,而不是要比較的兩個樣本的聯合方差。以三樣本之間均數差異比較為例,其公式為

S^2_c=frac{(n_1-1)S^2_1+(n_2-1)S_2^2+(n_3-1)S^2_3}{n_1+n_2+n_3-3}

LSD法往往計算最小顯著差異,即

LSD=t_{α/2}sqrt{S_c^2(frac{1}{n_1}+frac{1}{n_2})}

當兩組均數差大於LSD時,說明差異達到顯著的水平,也就可以拒絕零假設,認為兩組均數不相等。需要注意的是,LSD法單次比較的檢驗水準仍然為α。LSD法檢驗的靈敏度最高,但是會因為對比的頻數增加使得第一類型錯誤概率增加。為解決該問題,便出現了Sidak法和Bonferroni法。

【再次提醒】

LSD最小顯著差異法類似於對任何兩個總體均值進行兩樣本的t檢驗,但我們使用的是從所有的k個樣本中計算的聯合方差,而不是兩個樣本計算的聯合方差。另外t值自由度為方差分析中的N-k,而不是?N-2.

Sidak法

Sidak法的也是一種t檢驗,計算公式和LSD法的相同。但是Sidak法對α進行了調整。其調整方法如下:如果有k組,對k組進行兩兩比較的次數為

c=frac{k(k-1)}{2}

那麼做完c次比較,累積犯一類錯誤的概率為:

1-(1-α_{a})^c

令上面的公式值等於0.05,由此可以反推出調整後的 α_a ? 。例如進行6次事後比較,則Sidak法的?=0.0085,以 α_a 作為單次比較的顯著性水平,顯然 α_a 變小了。由於 α_a ?減小,結論趨於接受無效假設,因此該方法要比LSD法保守的多

Bonferroni法

Bonferroni法與Sidak法類似,同樣是在LSD法的基礎上對α進行了調整。其調整方法基於Bonferroni不等式。若有k組,其計算公式為

α_a=frac{α}{k}

一般認為Bonferroni法是最為保守的,仍然以上面例子來說明。若進行6次比較,則Bonferroni法的調整?=0.0083,比上面的sidak法還要小。事實上,當比較的次數不多時,該方法效果比較好,當比較次數較多時(如k>10),該方法對? α 的調整有些矯枉過正,效果不如Sidak法。

Dunnett法

Dunnett法檢驗統計量為 t_d ?,故又稱為Dunnett-t檢驗,實際上該方法的計算與LSD法相同,但是LSD法臨界值表基於t分布,而該方法有特殊的臨界值表 ,通常用於多個實驗組和一個對照組均數的比較。

Tukey法

在介紹Tukey方法前,首先了解學生化極差分布。

在概率論和統計學中,學生化極差分布是極差的抽樣分布。該分布是一種連續型概率分布,用於在樣本量較小且總體標準差未知的情況下估計正態分布總體的極差。

假設要比較的組數為k,那麼在零假設成立的條件下,下面的隨機變數服從學生化極差分布。

q=frac{ar{X}_{max}-ar{X}_{min}}{sqrt{frac{S^2_c}{n}}}

公式中分子分別是最大和最小樣本的均值, S^2_c ?是所有樣本的聯合方差 ,n為每個樣本的樣本含量。該統計量有兩個自由度,分別為k和n-k。

Turkey的HSD (Honestly significant difference)是基於學生化極差的成對比較。其思想和LSD方法類似,通過計算HSD統計量,如果兩組均數的差異大於該極差,認為差異是顯著的,因此拒絕零假設,認為兩組均數不同。計算臨界HSD的公式為

HSD=q_α(k,ν)sqrt{frac{S^2_c}{n}}

k為組數,ν為聯合方差的自由度,即N-k,n為每個樣本的樣本含量。從HSD公式上看,Tukey法較LSD法保守,即較LSD不易發現顯著差異。Tukey法要求比較的樣本容量相差不大,一般用於樣本容量相同的組之間均數的比較

SNK 法

SNK法全稱Newman–Keuls 或者 Student–Newman–Keuls,屬於復極差法(multiple range test),也稱為q檢驗。該方法是對Tukey法的修正,也用的是學生化極差統計量。但是與Tukey法所不同的是,該方法在計算臨界值時考慮了兩樣本均數排序的步長。因而不同步長的兩個樣本均數的比較使用不同的q臨界值

例如比較三個樣本均數,樣本均數從小到大排列後,如果比較最大均數和最小均數的差異,兩者的步長為3(此時計算的臨界值等於HSD),若比較最小均數和第二個均數,步長為2。根據步長和自由度查q臨界值表,計算相應的q臨界值,即最小顯著極差,進而判斷均數差異的顯著性。

W_r=q_α(r,ν)sqrt{frac{S^2_c}{n}}    或\ W_r=q_α(r,ν)sqrt{frac{S^2_c}{2}(frac1n_1+frac1n_2)}

r為組間步長,其他字母含義同Tukey法。可以發現Tukey法不管要比較的均數相差幾步都使用相同(且為最大)的臨界值,而SNK法則考慮了步長,並且隨著步長r的減小, W_r ?也在減小,因而SNK法較Tukey法靈敏(更容易發現顯著差異)。另外,對所有r>2,均有 LSD<W_r ?,因而SNK法又不及LSD法靈敏。

Duncan法

SNK法不同步長下的最小顯著極差變幅大,雖然減小了犯Ⅰ類錯誤的概率,但是同時增加了犯Ⅱ類錯誤的概率。

Duncan法的全稱為Duncans new multiple range test (MRT),也稱為新復極差法。該方法是對SNK法的修正,但是提高了一類錯誤概率,降低了二類錯誤的概率,通常用於農業研究。該方法與SNK法相似,區別在於計算最小顯著極差時,不是查q表,而是查SSR表,所得最小顯著極差值隨著k增大通常比SNK檢驗的小。


推薦閱讀:

TAG:方差分析 | 統計學 | 數據分析 |