天天看點

【梯度下降算法】{2} ——多元線性回歸中的梯度下降法

此處分析一下多元線性回歸模型中的梯度下降法。

線性回歸模型的損失函數:
【梯度下降算法】{2} ——多元線性回歸中的梯度下降法
即使是對于樣本特征數隻有1的線性回歸中,θ中也包含兩個值θ0和θ1。
梯度下降法的實作過程:
【梯度下降算法】{2} ——多元線性回歸中的梯度下降法
代價函數:
【梯度下降算法】{2} ——多元線性回歸中的梯度下降法
【梯度下降算法】{2} ——多元線性回歸中的梯度下降法
【梯度下降算法】{2} ——多元線性回歸中的梯度下降法
梯度下降法:
【梯度下降算法】{2} ——多元線性回歸中的梯度下降法
【梯度下降算法】{2} ——多元線性回歸中的梯度下降法
當使用梯度下降法求代價函數函數最小值的時候,有時要對目标函數進行設計,例如▽J(θ)式子後面的分母m就是後期添加上去的,以防梯度大小和樣本數量m有關,這是不合理的。
【梯度下降算法】{2} ——多元線性回歸中的梯度下降法

參考資料:bobo老師機器學習教程

繼續閱讀