如何解決機器學習中數據不平衡問題

如何解決機器學習中數據不平衡問題

這幾年來,機器學習和數據挖掘非常火熱,它們逐漸為世界帶來實際價值。與此同時,越來越多的機器學習演算法從學術界走向工業界,而在這個過程中會有很多困難。數據不平衡問題雖然不是最難的,但絕對是最重要的問題之一。

一、數據不平衡

在學術研究與教學中,很多演算法都有一個基本假設,那就是數據分布是均勻的。當我們把這些演算法直接應用於實際數據時,大多數情況下都無法取得理想的結果。因為實際數據往往分布得很不均勻,都會存在「長尾現象」,也就是所謂的「二八原理」。下圖是新浪微博交互分布情況:

可以看到大部分微博的總互動數(被轉發、評論與點贊數量)在0-5之間,交互數多的微博(多於100)非常之少。如果我們去預測一條微博交互數所在檔位,預測器只需要把所有微博預測為第一檔(0-5)就能獲得非常高的準確率,而這樣的預測器沒有任何價值。那如何來解決機器學習中數據不平衡問題呢?這便是這篇文章要討論的主要內容。

嚴格地講,任何數據集上都有數據不平衡現象,這往往由問題本身決定的,但我們只關注那些分布差別比較懸殊的;另外,雖然很多數據集都包含多個類別,但這裡著重考慮二分類,因為解決了二分類中的數據不平衡問題後,推而廣之就能得到多分類情況下的解決方案。綜上,這篇文章主要討論如何解決二分類中正負樣本差兩個及以上數量級情況下的數據不平衡問題。

不平衡程度相同(即正負樣本比例類似)的兩個問題,解決的難易程度也可能不同,因為問題難易程度還取決於我們所擁有數據有多大。比如在預測微博互動數的問題中,雖然數據不平衡,但每個檔位的數據量都很大——最少的類別也有幾萬個樣本,這樣的問題通常比較容易解決;而在癌症診斷的場景中,因為患癌症的人本來就很少,所以數據不但不平衡,樣本數還非常少,這樣的問題就非常棘手。綜上,可以把問題根據難度從小到大排個序:大數據+分布均衡<大數據+分布不均衡<小數據+數據均衡<小數據+數據不均衡。對於需要解決的問題,拿到數據後,首先統計可用訓練數據有多大,然後再觀察數據分布情況。經驗表明,訓練數據中每個類別有5000個以上樣本,數據量是足夠的,正負樣本差一個數量級以內是可以接受的,不太需要考慮數據不平衡問題(完全是經驗,沒有理論依據,僅供參考)。

二、如何解決

解決這一問題的基本思路是讓正負樣本在訓練過程中擁有相同的話語權,比如利用採樣與加權等方法。為了方便起見,我們把數據集中樣本較多的那一類稱為「大眾類」,樣本較少的那一類稱為「小眾類」。

1. 採樣

採樣方法是通過對訓練集進行處理使其從不平衡的數據集變成平衡的數據集,在大部分情況下會對最終的結果帶來提升。

採樣分為上採樣(Oversampling)和下採樣(Undersampling),上採樣是把小種類複製多份,下採樣是從大眾類中剔除一些樣本,或者說只從大眾類中選取部分樣本。

隨機採樣最大的優點是簡單,但缺點也很明顯。上採樣後的數據集中會反覆出現一些樣本,訓練出來的模型會有一定的過擬合;而下採樣的缺點顯而易見,那就是最終的訓練集丟失了數據,模型只學到了總體模式的一部分。

上採樣會把小眾樣本複製多份,一個點會在高維空間中反覆出現,這會導致一個問題,那就是運氣好就能分對很多點,否則分錯很多點。為了解決這一問題,可以在每次生成新數據點時加入輕微的隨機擾動,經驗表明這種做法非常有效。因為下採樣會丟失信息,如何減少信息的損失呢?第一種方法叫做EasyEnsemble,利用模型融合的方法(Ensemble):多次下採樣(放回採樣,這樣產生的訓練集才相互獨立)產生多個不同的訓練集,進而訓練多個不同的分類器,通過組合多個分類器的結果得到最終的結果。第二種方法叫做BalanceCascade,利用增量訓練的思想(Boosting):先通過一次下採樣產生訓練集,訓練一個分類器,對於那些分類正確的大眾樣本不放回,然後對這個更小的大眾樣本下採樣產生訓練集,訓練第二個分類器,以此類推,最終組合所有分類器的結果得到最終結果。第三種方法是利用KNN試圖挑選那些最具代表性的大眾樣本,叫做NearMiss,這類方法計算量很大,感興趣的可以參考「Learning from Imbalanced Data」這篇綜述的3.2.1節。

2. 數據合成

數據合成方法是利用已有樣本生成更多樣本,這類方法在小數據場景下有很多成功案例,比如醫學圖像分析等。其中最常見的一種方法叫做SMOTE,它利用小眾樣本在特徵空間的相似性來生成新樣本。對於小眾樣本 xi∈Sminxi∈Smin ,從它屬於小眾類的K近鄰中隨機選取一個樣本點 ^xix^i ,生成一個新的小眾樣本 xnewxnew : xnew=xi+(^x?xi)×δxnew=xi+(x^?xi)×δ ,其中 δ∈[0,1]δ∈[0,1] 是隨機數。

上圖是SMOTE方法在 K=6

近鄰下的示意圖,黑色方格是生成的新樣本。

SMOTE為每個小眾樣本合成相同數量的新樣本,這帶來一些潛在的問題:一方面是增加了類之間重疊的可能性,另一方面是生成一些沒有提供有益信息的樣本。為了解決這個問題,出現兩種方法:Borderline-SMOTE與ADASYN。Borderline-SMOTE的解決思路是尋找那些應該為之合成新樣本的小眾樣本。即為每個小眾樣本計算K近鄰,只為那些K近鄰中有一半以上大眾樣本的小眾樣本生成新樣本。直觀地講,只為那些周圍大部分是大眾樣本的小眾樣本生成新樣本,因為這些樣本往往是邊界樣本。確定了為哪些小眾樣本生成新樣本後再利用SMOTE生成新樣本。ADASYN的解決思路是根據數據分布情況為不同小眾樣本生成不同數量的新樣本。首先根據最終的平衡程度設定總共需要生成的新小眾樣本數量 GG ,然後為每個小眾樣本 xixi 計算分布比例 ΓiΓi : Γi=Δi/KZΓi=Δi/KZ ,其中 ΓiΓi 是 xixi K近鄰中大眾樣本的數量, ZZ 用來歸一化使得 ∑Γi=1∑Γi=1 ,最後為小眾樣本 xixi 生成新樣本的個數為 gi=Γi×Ggi=Γi×G ,確定個數後再利用SMOTE生成新樣本。

3. 加權

除了採樣和生成新數據等方法,我們還可以通過加權的方式來解決數據不平衡問題,即對不同類別分錯的代價不同,如下圖:

橫向是真實分類情況,縱向是預測分類情況,C(i,j)是把真實類別為j的樣本預測為i時的損失,我們需要根據實際情況來設定它的值。

這種方法的難點在於設置合理的權重,實際應用中一般讓各個分類間的加權損失值近似相等。當然這並不是通用法則,還是需要具體問題具體分析。

4. 一分類

對於正負樣本極不平衡的場景,我們可以換一個完全不同的角度來看待問題:把它看做一分類(One Class Learning)或異常檢測(Novelty Detection)問題。這類方法的重點不在於捕捉類間的差別,而是為其中一類進行建模,經典的工作包括One-class SVM等。

三、如何選擇

解決數據不平衡問題的方法有很多,上面只是一些最常用的方法,而最常用的方法也有這麼多種,如何根據實際問題選擇合適的方法呢?接下來談談一些我的經驗。

在正負樣本都非常之少的情況下,應該採用數據合成的方式;在負樣本足夠多,正樣本非常之少且比例及其懸殊的情況下,應該考慮一分類方法;在正負樣本都足夠多且比例不是特別懸殊的情況下,應該考慮採樣或者加權的方法。

採樣和加權在數學上是等價的,但實際應用中效果卻有差別。尤其是採樣了諸如Random Forest等分類方法,訓練過程會對訓練集進行隨機採樣。在這種情況下,如果計算資源允許上採樣往往要比加權好一些。

另外,雖然上採樣和下採樣都可以使數據集變得平衡,並且在數據足夠多的情況下等價,但兩者也是有區別的。實際應用中,我的經驗是如果計算資源足夠且小眾類樣本足夠多的情況下使用上採樣,否則使用下採樣,因為上採樣會增加訓練集的大小進而增加訓練時間,同時小的訓練集非常容易產生過擬合。對於下採樣,如果計算資源相對較多且有良好的並行環境,應該選擇Ensem


推薦閱讀:

機器學習入門之邏輯回歸分類
【用Sklearn進行機器學習】第四篇 - 深入監督學習:隨機森林
馬庫斯:DeepMind新出的機器心智網路不錯,但有誤導性
機器學習筆記
引領深度學習革命--CNN架構全解析

TAG:機器學習 | 大規模機器學習 | 數據分析師 |