此處分析一下多元線性回歸模型中的梯度下降法。
線性回歸模型的損失函數:
![](https://img.laitimes.com/img/9ZDMuAjOiMmIsIjOiQnIsIyZuBnLwkTO5MzM0QTM5IzMwAjMwIzLc52YucWbp5GZzNmLn9Gbi1yZtl2Lc9CX6MHc0RHaiojIsJye.png)
即使是對于樣本特征數隻有1的線性回歸中,θ中也包含兩個值θ0和θ1。
梯度下降法的實作過程:
代價函數:
![]()
【梯度下降算法】{2} ——多元線性回歸中的梯度下降法 ![]()
【梯度下降算法】{2} ——多元線性回歸中的梯度下降法
梯度下降法:
當使用梯度下降法求代價函數函數最小值的時候,有時要對目标函數進行設計,例如▽J(θ)式子後面的分母m就是後期添加上去的,以防梯度大小和樣本數量m有關,這是不合理的。![]()
【梯度下降算法】{2} ——多元線性回歸中的梯度下降法
參考資料:bobo老師機器學習教程