天天看點

機器學習-線性回歸-多元度特征變量

之前的幾篇文章裡面,我們都隻是介紹了單維特征變量的線性回歸模型,比如預測房價的時候,我們隻用了房子的面積這個次元。

接下來我們會去研究多個次元的線性回歸模型

還是從預測房價這個例子入手,假設我們現在不隻是單純的考慮房子的面積,還考慮了卧室的數量、樓層、房子年限等三個維數

得到了一個新的訓練集

機器學習-線性回歸-多元度特征變量

由于特征向量x的次元是多元,是以我們的表示發生了一些變化,如下圖

機器學習-線性回歸-多元度特征變量

是以,多個次元特征變量的線性回歸的假設函數可定義為

機器學習-線性回歸-多元度特征變量

還是假設X0 = 1

機器學習-線性回歸-多元度特征變量

此時,函數h有n+1個參數θ0 ~ θn,同時特征向量x有n維,x1 ~ xn,特殊的是x0永遠等于1

不難發現函數h是特征向量x(x0,x1 ... xn) 和 參數θ的轉置矩陣的乘積,證明如下

機器學習-線性回歸-多元度特征變量

是以,函數h可以簡化為如下式子

機器學習-線性回歸-多元度特征變量

同理,擴充到多元特征變量之後,代價函數J,如下所示

機器學習-線性回歸-多元度特征變量

我們的目的也是通過多輪的疊代,找到最佳的參數θ0 ~ θn,使得函數J(θ0,θ1,...θn)的值最小

機器學習-線性回歸-多元度特征變量
機器學習-線性回歸-多元度特征變量
機器學習-線性回歸-多元度特征變量

繼續閱讀