專欄總目錄

當我們在談論K-means

在網上找到的K-means或聚類相關的文章,內容大多較為瑣碎,不太能幫助深入理解它。為了加深對K-means的理解,以便在實際中調參與修改演算法,於是有了這個系列。此系列主要是從理論層面去理解K-means及相關演算法,包含的文章如下:

當我們在談論K-means:數據概述

當我們在談論K-means:論文概述(1)

當我們在談論K-means:論文概述(2)

當我們在談論K-means:其他聚類演算法

當我們在談論K-means:總結

當我們在談論GBDT

由於 GBDT 效果一直比較好,加上 XGBoost 的易用性,GBDT 近幾年在Kaggle等競賽中受到追捧。同時,也帶火了相關的一些 Ensemble Learning 演算法。我想系統的梳理一下相關的知識點,但網上有關 GBDT 的文章相對瑣碎,所以有了這個系列。這個系列除了從理論層面去梳理相關概念,也會輔以實踐案例,包含的文章如下:

當我們在談論GBDT:從 AdaBoost 到 Gradient Boosting

當我們在談論GBDT:Gradient Boosting 用於分類與回歸

當我們在談論GBDT:其他 Ensemble Learning 演算法

當我們在談論GBDT:在 Kaggle 等競賽中實踐(暫時推遲)

當我們在談論 Deep Learning

Deep Learning 是眾多機器學習演算法中的一種。它起源於60年代的 Perceptron,經過80年代的 Artificial Neural Network,現階段被稱為 Deep Learning。迄今為止,是「有監督學習」領域最強大的演算法類型,暫時還沒有「之一」。同時,它也正在往」無監督「和」強化學習「領域擴散。網路上雖然已經有不少介紹 Deep Learning 的文章,但是大多不成系統,或作者並沒有持續更新。因此便想自己寫一個系列,梳理 Deep Learning 經典結構或演算法,盡量保持更新。本系列包含的文章如下(這只是預告,正文正在寫):

Supervised Learning:

當我們在談論 Deep Learning:DNN 與 Backpropagation

當我們在談論 Deep Learning:DNN 與它的參數們(壹)

當我們在談論 Deep Learning:DNN 與它的參數們(貳)

當我們在談論 Deep Learning:DNN 與它的參數們(叄)

當我們在談論 Deep Learning:CNN 其常見架構(上)

當我們在談論 Deep Learning:CNN 其常見架構(下)

當我們在談論 Deep Learning:RNN 其常見架構

Unsupervised Learning:

當我們在談論 Deep Learning:AutoEncoder 及其相關模型

Reinforcement Learning:


推薦閱讀:

想讓視頻網站乖乖幫你推內容?看看這位小哥是如何跟YouTube鬥法的
如果說,沒有一個NP完全問題有多項式時間演算法,那麼為什麼這個問題能被稱為NP完全問題?
matlab如何產生只有0與1的長度為n的所有不重複序列?
Facebook廣告系統背後的Pacing演算法

TAG:机器学习 | 算法 |