標籤:

機器學習基礎概念3:監督學習

特徵和標籤(features and lables)

先說一下什麼是特徵和標籤。

我有一組數據,數據中的值都是成對出現,例如(25,180),25代表人的年齡,180代表身高。我們想通過這組數據得到年齡和身高之間的關係。人的年齡就是特徵,對應的身高就是標籤

什麼是監督學習?

監督學習就是給你一堆樣本,包括特徵值和對應的標籤值,學習樣本和標籤之間的對應關係。(不給你標籤值讓你學習對應關係就是非監督學習)

表達式

x^{(i)}表示輸入,也就是特徵值。

y^{(i)}表示輸出,也就是標籤值。

(x^{(i)}, y^{(i)})表示一個訓練樣本。

(x^{(i)}, y^{(i)});i=1,2,dots, m表示樣本集。

註:上標i表示樣本的索引值。

大寫X表示輸入樣本空間。

大寫Y表示輸出樣本空間。

監督學習的定義:

學習一個函數(也叫做假設)h:X rightarrow Y,使得h(x)是對應的y的很好的預測值。

代價函數(cost function)

代價函數就是用來評估假設h與樣本之間的『測量標準』,以『均方誤差』為例:

J(theta_0,theta_1) = frac 1{2m} sum_{i=1}^m{(hat y_i - y_i)^2}

其中J代表代價函數,theta_0,theta_1代表h的參數。

我們的『學習』目標是找到theta_0,theta_1,使得J最小:

mathop{minimize}limits_{theta_0,theta_1}J(theta_0,theta_1)

梯度下降(Gradient Descent)

理解了什麼是代價函數,我們就可以搞清楚監督學習是如何『學習』的。通過『梯度下降』。具體來說,求代價函數對於參數theta_0,theta_1的梯度,這個梯度代表使J最小的參數優化『方向』,參數減去這個梯度就相當於向使得J最小的方向前進。如此循環往複,最終收斂到最合適的參數。用數學公式描述這一過程就是:

theta_j := theta_j ? alphafrac{partial }{partial theta_j}J(theta_0,theta_1)

這裡的j = 0,1代表特徵的索引。這裡的alpha是學習率,可以理解為前進步幅的大小。

監督學習的方法:

  • 回歸(Regression)
  • 決策樹(Decision Tree)
  • 神經網路(Neural network)
  • 支持向量機(Support vector machine)
  • K最近鄰(k-Nearest Neighbor)
  • 貝葉斯(Bayes)
  • 集成學習(Ensemble learning)

推薦閱讀:

如何評價牛津的Prof. Andrew Zisserman?
關於LDA的gibbs採樣,為什麼可以獲得正確的樣本?
有沒有可能對門戶網站爬下來的新聞做主題分類?
增強學習在推薦系統有什麼最新進展?

TAG:机器学习 |