每天一道面試題:簡述不完備數據下學習貝葉斯網路結構
來自專欄每天一道機器學習面試題
本公眾號由清華,復旦,中科大多名研究生共同創建,主要更新最新AI頂會快速解讀和Pytorch編程,金融大數據與量化投資。如果您喜歡的話請關注我們公眾號回復python,有大量學習資源贈送。同時歡迎加入AI學術交流群,將根據您的學校背景分配不同的群,後台回復[進群]即可。
http://weixin.qq.com/r/Bik6IiTElnnprWBB93wU (二維碼自動識別)
由於具體項目中,數據並不都是完備的。而數據的微小變化就會導致網路結構的巨大變化,所以數據完備化就是通過採樣的方法將缺失的觀測數據完備化。
不完備數據下的結構學習具體演算法:
1:隨機或按分布生成丟失數據,初始化不完備數據;
2:完善修正數據,通過參數估計得出貝葉斯網路的參數估計值 Θ k ;
3:對得到的貝葉斯網路觀測數據進行結構學習得出 G k ,併到步驟 2,直至結構序列收斂並趨於最優網路結構。
基於 EM演算法框架的不完備數據的貝葉斯網路結構學習
演算法在每一次迭代過程中進行以下步驟:
a)基於第 k 步的 Θ k 和 G k 對 k +1 的數據進行修補
(b)對修補後的 k +1 步數據進行最大似然估計,得出 Θ k +1
MS-EM 演算法是在 EM 演算法完成數據修補後,利用爬山演算法來尋找最優的網路結構。為減少爬山演算法的計算複雜度,之後提出了 GES-EM算 法 和 MWST-EM 演算法。但是,基於 EM 演算法框架的結構學習演算法由於網路參數的最大似然估計和數據採樣的不準確性,使得學習準確度較低。
BN-GS演算法可以解決局部最優的問題。BN-GS演算法把 Gibbs sampling 和數據集修正與貝葉斯網路結構調整結合在一起。由 Gibbs sampling 過程的收斂性保證了貝葉斯網路結構序列的收斂性並且依據聯合概率的分解對樣本進行抽樣,並顯著提高抽樣效率。
Bagging 演算法可以提高學習演算法精確度,通過構造預測函數序列,將它們組合成一個預測函數,從而將弱學習演算法提升為強學習演算法。將 Bagging 演算法運用到不完備數據的結構學習中,對數據進行重複抽樣,並構建出精確度較高的評分函數 DPSM,改進評分函數對網路複雜度的懲罰因子,在不完備數據下的效果會明顯優於其他評分函數,提高了學習準確度。
參考文獻:《貝葉斯網路結構學習綜述》李碩豪 ,張軍,國防科學技術大學信息系統與管理學院
往期精品文章
AI頂會論文快速解讀|將金融領域中的CVaR作為目標策略來定製對話模型
AI頂會論文詳細解讀|對抗訓練解決開放式生成式對話
AI頂會論文詳細解讀|深度強化學習之基於對話交互的學習對話
AI頂會論文快速解讀|控制具體化程度的閑聊對話系統
精美PPT快速熟悉RNN與LSTM,附tensorflow教程代碼(回復PPT有資源放送)
每天三分鐘之Pytorch編程-1:為何選擇你?
每天三分鐘之Pytorch編程-2:一起來搭積木吧
每天三分鐘之Pytorch編程-3:沒事就來煉丹吧
每天三分鐘之Pytorch編程-4:來搭建個翻譯系統吧(1)
每天三分鐘之Pytorch編程-4:來搭建個翻譯系統吧(2
每天三分鐘之Pytorch編程-4:來搭建個翻譯系統吧(3)
http://weixin.qq.com/r/Bik6IiTElnnprWBB93wU (二維碼自動識別)
推薦閱讀:
※從數據分析結果到決策
※2018 年大疆機器學習演算法工程師春季提前批筆試題
※數據挖掘過程中:數據預處理
※數據挖掘軟體WEKA(1),修改數據類型
※數據分析師該這樣霸氣回應「0.00008的轉化也很好」的謬論