神經網路的梯度下降演算法:梯度矩陣的鏈式法則(便於向量化代碼實現)
04-30
是可微函數,記,若,則有:
(1)
(2)
(3)
推論:若又有,則可由(1)(2)得
證明:
所以
所以
所以
推薦閱讀:
※為什麼 feature scaling 會使 gradient descent 的收斂更好?
※梯度上升演算法與梯度下降演算法求解回歸係數怎麼理解?
※機器學習筆記7 —— 編程作業1代價函數和梯度下降函數
※機器學習筆記8 —— 邏輯回歸模型的代價函數和梯度下降演算法
※為什麼梯度的負方向是局部下降最快的方向?