謝小嬌學了想改行之最大熵模型

排版好的點這裡!謝小嬌學了想改行之最大熵模型

雖然根本沒人看

我在想我要不改寫JavaEE的一些基礎內容,數學限制了我的自學能力QAQ

事實證明,學校教的工數代幾根本不夠用……

今天來講講(複製粘貼)最大熵模型

大概……刪了一半的數學公式吧(微笑)

不要把所有雞蛋放在一個籃子里

& 不要弔死在一個樹上

其實可以姑且認為是今天講的最大熵模型。

最大熵原理

具體什麼意思呢?

就是如果和你說我有一個骰子,6個面,扔到每個面的概率是多少呢?

直覺告訴我們是1/6,這個直覺就符合最大熵模型。

繼續,還是6個面,有兩個面的概率和是1/2,扔到每個面的概率是多少呢?

直覺告訴我們兩個面是1/4,其餘為1/8,這個直覺就符合最大熵模型。

玄學上講:「知之為知之 不知為不知 是知也。

最大熵原理的本質:系統中事件發生的概率滿足一切已知約束條件,不對任何未知信息做假設,也就是對於未知的,當作等概率處理。

公式證明:

推薦閱讀:(blog.sina.com.cn/s/blog)

最大熵模型

我們先來解釋一下特徵函數(摔)

然後幫助理解最大熵模型推導過程的解釋:

詳細閱讀:(blog.csdn.net/itplus/ar

最大熵模型學習

放棄了吧哈哈哈哈哈哈哈哈哈哈哈哈哈哈

哈哈哈哈哈哈哈其實就是極大極小化一個變化。

用個例子來續一波:

推薦閱讀(zhihu.com/question/2409

理解原理會吹牛逼即可!

淺嘗輒止給人幸福!

後面具體的求解最大值我就不貼了,畢竟都是數學公式,實際上就是前面發過的梯度下降&牛頓迭代法的運用。

資料來源:

《統計學習方法》

網上資料已經在文中貼出。

關注一下,一起學習哈。

weixin.qq.com/r/vS0qLsf (二維碼自動識別)

微信掃一掃

關注該公眾號


推薦閱讀:

Deep Metric Learning via Lifted Structured Feature Embedding(CVPR,2016)
2-2 Cost Function
Cousera deeplearning.ai筆記 — 深度神經網路(Deep neural network)
2017年深度學習頂級論文盤點
如何六個月內學會深度學習

TAG:數據挖掘 | 機器學習 | 最大熵 |