天天看點

機器學習-監督學習-cost function

當我們的訓練集如下圖1所示,可以假設hypothesis函數如圖2

機器學習-監督學習-cost function
機器學習-監督學習-cost function

θ0和θ1我們稱為hθ(x)函數的2個參數,h是x的函數,是以有時候也記着h(x)

對于這個已有的hypothesis,我們需要什麼方法來評估這個假設函數的好壞呢?

是以我們定義了一個叫"代價函數"cost function 來評估目前hθ(x)函數

cost function也叫作loss function,就是對hθ(x)函數進行評估的一個函數。

<code>代價函數最重要的作用就是是用來度量預測錯誤的程度,通常來說,模型越準确,越接近真實,其cost function的值就越小。</code>

cost function 通常用大寫字母J表示,由于cost function的大小和hθ(x)的參數取值相關,不難想象,J是θ的函數,用Jθ表示。

線性回歸中的cost function,通常用最小"平方差"來表示,也稱為square loss,

有2個參數θ0和θ1的時候,可以定義cost function函數如下是以

機器學習-監督學習-cost function

這裡x和y的右上角标i,表示training set中第i個資料的特征向量和實際值,加括号表示是第i個,而不是i次幂

由cost function定義可以知道,當hθ(x)對training set測試結果完全正确的時候,const function的值是0

是以我們的目标,就是盡量優化hθ(x),不斷更改參數θ0 ~ θn 的值,使得Jθ的值最小,即上圖中的Goal

為了簡化模型,我們假設hθ(x)隻有2個參數θ0和θ1,同時假設θ0 = 0

是以hθ(x) = θ1X

我們根據θ1的值等于 -1,0,1,2 可以畫出cost function J(θ)的函數圖像如下所示J(θ)。可以發現代價函數J(θ)是一個"凸函數",存在全局最小值。

機器學習-監督學習-cost function

不難發現,當θ1 =1 的時候training set能夠和hθ(x) 完美拟合成一條直線,此時J(θ)值最小為0

類似的,當θ0不等于0的時候,此時hθ(x)有2個不為0的參數θ0和θ1,J(θ)的圖像可能如下圖所示

機器學習-監督學習-cost function

繼續閱讀