集成學習
03-03
[1]簡介
[2]Boosting
個體學習器之間存在強依賴關係,一系列個體學習器基本都需要串列生成,代表演算法是boosting系列演算法,關注偏差,故可以將弱學習器集成為強學習器。
{1}adaboost
(3)權值分布的更新
[3]Bagging與隨機森林
個體學習器之間不存在強依賴關係,一系列個體學習器可以並行生成,代表演算法是bagging和隨機森林(Random Forest)系列演算法,關注方差,對於易受樣本擾動的學習器效果更明顯。
為使各基學習器不同,可以對樣本進行採樣,產生不同的子集,再根據各子集訓練出的基學習器不同。但每個子集又不能完全不同,否則每個基學習器只用了部分數據,不能體現總體,於是採用有相互交疊的樣本子集。
{1}Bagging
{2}隨機森林
[4]結合策略
得到了各基學習器的結果,如何集成這些結果得到最後的預測結果。
{1}平均法
{2}投票法
{3}學習法
推薦閱讀:
※矩陣分解及其意義
※概率論回顧
※概率論如何實現抽象
※各種空間
TAG:概率論 |