專欄總目錄
當我們在談論K-means
在網上找到的K-means或聚類相關的文章,內容大多較為瑣碎,不太能幫助深入理解它。為了加深對K-means的理解,以便在實際中調參與修改演算法,於是有了這個系列。此系列主要是從理論層面去理解K-means及相關演算法,包含的文章如下:
當我們在談論K-means:數據概述
當我們在談論K-means:論文概述(1)
當我們在談論K-means:論文概述(2)
當我們在談論K-means:其他聚類演算法
當我們在談論K-means:總結
當我們在談論GBDT
由於 GBDT 效果一直比較好,加上 XGBoost 的易用性,GBDT 近幾年在Kaggle等競賽中受到追捧。同時,也帶火了相關的一些 Ensemble Learning 演算法。我想系統的梳理一下相關的知識點,但網上有關 GBDT 的文章相對瑣碎,所以有了這個系列。這個系列除了從理論層面去梳理相關概念,也會輔以實踐案例,包含的文章如下:
當我們在談論GBDT:從 AdaBoost 到 Gradient Boosting
當我們在談論GBDT:Gradient Boosting 用於分類與回歸
當我們在談論GBDT:其他 Ensemble Learning 演算法
當我們在談論GBDT:在 Kaggle 等競賽中實踐(暫時推遲)
當我們在談論 Deep Learning
Deep Learning 是眾多機器學習演算法中的一種。它起源於60年代的 Perceptron,經過80年代的 Artificial Neural Network,現階段被稱為 Deep Learning。迄今為止,是「有監督學習」領域最強大的演算法類型,暫時還沒有「之一」。同時,它也正在往」無監督「和」強化學習「領域擴散。網路上雖然已經有不少介紹 Deep Learning 的文章,但是大多不成系統,或作者並沒有持續更新。因此便想自己寫一個系列,梳理 Deep Learning 經典結構或演算法,盡量保持更新。本系列包含的文章如下(這只是預告,正文正在寫):
Supervised Learning:
當我們在談論 Deep Learning:DNN 與 Backpropagation
當我們在談論 Deep Learning:DNN 與它的參數們(壹)
當我們在談論 Deep Learning:DNN 與它的參數們(貳)
當我們在談論 Deep Learning:DNN 與它的參數們(叄)
當我們在談論 Deep Learning:CNN 其常見架構(上)
當我們在談論 Deep Learning:CNN 其常見架構(下)
當我們在談論 Deep Learning:RNN 其常見架構
Unsupervised Learning:
當我們在談論 Deep Learning:AutoEncoder 及其相關模型
Reinforcement Learning:
推薦閱讀:
※想讓視頻網站乖乖幫你推內容?看看這位小哥是如何跟YouTube鬥法的
※如果說,沒有一個NP完全問題有多項式時間演算法,那麼為什麼這個問題能被稱為NP完全問題?
※matlab如何產生只有0與1的長度為n的所有不重複序列?
※Facebook廣告系統背後的Pacing演算法