天天看點

【學習筆記2】Regression-Case Study回歸分析:輸出是一個數值第一步:建立函數模型第二步:判斷函數好壞第三步:找最好的函數回到第一步:重建函數模型回到第二步:Regularization正則化

回歸分析:輸出是一個數值

(The output of the function is a scalar)

【學習筆記2】Regression-Case Study回歸分析:輸出是一個數值第一步:建立函數模型第二步:判斷函數好壞第三步:找最好的函數回到第一步:重建函數模型回到第二步:Regularization正則化
【學習筆記2】Regression-Case Study回歸分析:輸出是一個數值第一步:建立函數模型第二步:判斷函數好壞第三步:找最好的函數回到第一步:重建函數模型回到第二步:Regularization正則化

第一步:建立函數模型

【學習筆記2】Regression-Case Study回歸分析:輸出是一個數值第一步:建立函數模型第二步:判斷函數好壞第三步:找最好的函數回到第一步:重建函數模型回到第二步:Regularization正則化

第二步:判斷函數好壞

y hat:表示training data中正确的值(已知),實際觀察到function的output

【學習筆記2】Regression-Case Study回歸分析:輸出是一個數值第一步:建立函數模型第二步:判斷函數好壞第三步:找最好的函數回到第一步:重建函數模型回到第二步:Regularization正則化
【學習筆記2】Regression-Case Study回歸分析:輸出是一個數值第一步:建立函數模型第二步:判斷函數好壞第三步:找最好的函數回到第一步:重建函數模型回到第二步:Regularization正則化

函數的函數——泛函

損失函數Loss Function實際上是衡量一組參數(w,b)的好壞

平方損失函數:最小二乘法(平方是為了取正值)本質上是找到一條線 使得所有的點到它的距離和最小

【學習筆記2】Regression-Case Study回歸分析:輸出是一個數值第一步:建立函數模型第二步:判斷函數好壞第三步:找最好的函數回到第一步:重建函數模型回到第二步:Regularization正則化

本質上,應該畫一個三維圖像,w,b為自變量,損失函數為應變量,在此用顔色代表

【學習筆記2】Regression-Case Study回歸分析:輸出是一個數值第一步:建立函數模型第二步:判斷函數好壞第三步:找最好的函數回到第一步:重建函數模型回到第二步:Regularization正則化

第三步:找最好的函數

arg指傳回變量的值,這裡傳回w,b的值

【學習筆記2】Regression-Case Study回歸分析:輸出是一個數值第一步:建立函數模型第二步:判斷函數好壞第三步:找最好的函數回到第一步:重建函數模型回到第二步:Regularization正則化

梯度下降

(一個參數):求微分

步長因子:學習率 + 斜率**(越陡 斜率絕對值越大 步長就越大*)*

【學習筆記2】Regression-Case Study回歸分析:輸出是一個數值第一步:建立函數模型第二步:判斷函數好壞第三步:找最好的函數回到第一步:重建函數模型回到第二步:Regularization正則化

local optimal:局部最優

not global optimal:非全局最優

【學習筆記2】Regression-Case Study回歸分析:輸出是一個數值第一步:建立函數模型第二步:判斷函數好壞第三步:找最好的函數回到第一步:重建函數模型回到第二步:Regularization正則化

(兩個參數):求偏微分

倒三角就是梯度算子(在空間各方向上的全微分),也就是Hamilton哈密頓算子

圖示公式表示矢量L的梯度

【學習筆記2】Regression-Case Study回歸分析:輸出是一個數值第一步:建立函數模型第二步:判斷函數好壞第三步:找最好的函數回到第一步:重建函數模型回到第二步:Regularization正則化

局部最優:即随機梯度下降

線上性回歸中,損失函數L是凸面的

凸函數的局部最優解,就是全局最優解(線性回歸無局部極值)

【學習筆記2】Regression-Case Study回歸分析:輸出是一個數值第一步:建立函數模型第二步:判斷函數好壞第三步:找最好的函數回到第一步:重建函數模型回到第二步:Regularization正則化

求偏微分具體過程

【學習筆記2】Regression-Case Study回歸分析:輸出是一個數值第一步:建立函數模型第二步:判斷函數好壞第三步:找最好的函數回到第一步:重建函數模型回到第二步:Regularization正則化

最終是得到的y與直線上的y的值的差距(相當于同一個x,兩個y點的內插補點)

【學習筆記2】Regression-Case Study回歸分析:輸出是一個數值第一步:建立函數模型第二步:判斷函數好壞第三步:找最好的函數回到第一步:重建函數模型回到第二步:Regularization正則化

generalization:一般化

【學習筆記2】Regression-Case Study回歸分析:輸出是一個數值第一步:建立函數模型第二步:判斷函數好壞第三步:找最好的函數回到第一步:重建函數模型回到第二步:Regularization正則化

在一堆function model裡找出最比對的model

【學習筆記2】Regression-Case Study回歸分析:輸出是一個數值第一步:建立函數模型第二步:判斷函數好壞第三步:找最好的函數回到第一步:重建函數模型回到第二步:Regularization正則化
【學習筆記2】Regression-Case Study回歸分析:輸出是一個數值第一步:建立函數模型第二步:判斷函數好壞第三步:找最好的函數回到第一步:重建函數模型回到第二步:Regularization正則化
【學習筆記2】Regression-Case Study回歸分析:輸出是一個數值第一步:建立函數模型第二步:判斷函數好壞第三步:找最好的函數回到第一步:重建函數模型回到第二步:Regularization正則化
【學習筆記2】Regression-Case Study回歸分析:輸出是一個數值第一步:建立函數模型第二步:判斷函數好壞第三步:找最好的函數回到第一步:重建函數模型回到第二步:Regularization正則化

yield:産生

一個更複雜的model會在訓練資料集上産生更小誤差

【學習筆記2】Regression-Case Study回歸分析:輸出是一個數值第一步:建立函數模型第二步:判斷函數好壞第三步:找最好的函數回到第一步:重建函數模型回到第二步:Regularization正則化

overfitting:過拟合

(一個更複雜的model并不總導緻在測試資料集上更好的表現)

【學習筆記2】Regression-Case Study回歸分析:輸出是一個數值第一步:建立函數模型第二步:判斷函數好壞第三步:找最好的函數回到第一步:重建函數模型回到第二步:Regularization正則化

當收集更多資料時,會出現一些在之前的function model中沒被考慮到的隐藏因素

【學習筆記2】Regression-Case Study回歸分析:輸出是一個數值第一步:建立函數模型第二步:判斷函數好壞第三步:找最好的函數回到第一步:重建函數模型回到第二步:Regularization正則化
【學習筆記2】Regression-Case Study回歸分析:輸出是一個數值第一步:建立函數模型第二步:判斷函數好壞第三步:找最好的函數回到第一步:重建函數模型回到第二步:Regularization正則化

回到第一步:重建函數模型

【學習筆記2】Regression-Case Study回歸分析:輸出是一個數值第一步:建立函數模型第二步:判斷函數好壞第三步:找最好的函數回到第一步:重建函數模型回到第二步:Regularization正則化

它同樣屬于線性模型

藍色框框裡的是feature

【學習筆記2】Regression-Case Study回歸分析:輸出是一個數值第一步:建立函數模型第二步:判斷函數好壞第三步:找最好的函數回到第一步:重建函數模型回到第二步:Regularization正則化
【學習筆記2】Regression-Case Study回歸分析:輸出是一個數值第一步:建立函數模型第二步:判斷函數好壞第三步:找最好的函數回到第一步:重建函數模型回到第二步:Regularization正則化
【學習筆記2】Regression-Case Study回歸分析:輸出是一個數值第一步:建立函數模型第二步:判斷函數好壞第三步:找最好的函數回到第一步:重建函數模型回到第二步:Regularization正則化

以下将寶可夢的重量、高度、健康值全部考慮在内

得到的training error非常可觀,但是testing error 過拟合

【學習筆記2】Regression-Case Study回歸分析:輸出是一個數值第一步:建立函數模型第二步:判斷函數好壞第三步:找最好的函數回到第一步:重建函數模型回到第二步:Regularization正則化

回到第二步:Regularization正則化

正則化解決過拟合問題:也就是在L函數中加入一個正則化項

我們需要更平滑的function:也就是輸出對輸入不那麼sensitive

在做regularization時,不需要考慮b這一項(因為我們要做的是找一個平滑的function,調整b與一個函數的平滑程度無關,隻是将函數上下偏移)

【學習筆記2】Regression-Case Study回歸分析:輸出是一個數值第一步:建立函數模型第二步:判斷函數好壞第三步:找最好的函數回到第一步:重建函數模型回到第二步:Regularization正則化

λ \lambda λ值越大,考慮smooth的正則化那一項就越大,function就越平滑,但訓練資料的誤差就越大( λ \lambda λ值越大,越傾向于考慮w本來的值,而減少考慮error)

【學習筆記2】Regression-Case Study回歸分析:輸出是一個數值第一步:建立函數模型第二步:判斷函數好壞第三步:找最好的函數回到第一步:重建函數模型回到第二步:Regularization正則化
【學習筆記2】Regression-Case Study回歸分析:輸出是一個數值第一步:建立函數模型第二步:判斷函數好壞第三步:找最好的函數回到第一步:重建函數模型回到第二步:Regularization正則化

繼續閱讀