標籤:

2-2 Cost Function

這節課我們將定義代價函數的概念,這有助於我們弄清楚如何把最有可能的直線與我們的數據相擬合,在線性回歸中我們有一個訓練集,m代表了訓練樣本的數量,假設函數也就是用來預測的線性函數,θi稱為模型參數。我們要做的就是如何選擇這兩個參數值θ0和θ1

選擇不同的參數θ0和θ1會得到不同的假設和假設函數

在線性回歸中我們有一個訓練集,我們要做的就是得出θ0和θ1兩個參數的值,來讓假設函數表示的直線盡量地與這些數據很好的擬合,所以我們要盡量選擇參數值使得在訓練集中給出x值我們能合理地預測y的值。讓我們給出標準的定義,在線性化問題中我們要解決的是一個最小化問題,希望h(x)和y之間的差異要盡量小,盡量減少假設的輸出與房子真實價格之間的差的平方嗎,也就是求和預測值和實際值的差的平方的誤差和,或者說預測價格和實際賣出的價格的差的平方,井號是訓練樣本個數的縮寫。

為了使公式更加簡單,我們重新定義個函數,對函數J(θ0,θ1)求最小值,這就是代價函數,也被稱為平方誤差函數,有時也被稱為平方誤差代價函數,之所以要求出誤差的平方和,因為平方誤差代價函數對於大多數問題,特別是回歸問題,都是一個合理的選擇,還有其他的代價函數也能很好地發揮作用,但是平方誤差代價函數可能是解決回歸問題的最常用手段了。

在後續課程中,我們還會談論其他的代價函數,但上面的選擇對於大多數線性回歸問題非常合理,到目前為止我們已經介紹了代價函數的數學定義,接下來我們要更進一步解釋函數J的工作原理,並嘗試更直觀地解釋它在計算什麼,以及我們使用它的目的


推薦閱讀:

關鍵詞提取Part1(A Quick Review)
線性支持向量機(soft-margin SVM)
看得見的資訊理論-為什麼用交叉熵作為邏輯回歸的代價函數
鋼鐵直男的救世主來了!讓AI告訴你妹子到底是啥意思
一樣的打遊戲,不一樣的酷

TAG:機器學習 |