二分分類
logistic回歸是一個用于二分分類的算法。
這裡有一個二分分類的例子:
假如有一個圖檔,内容是一隻貓
把這張圖檔作為我們要輸入的内容。想要識别此圖的标簽,如果是貓的話,就輸出 1,如果不是的話就輸出0。用變量‘y’來表示輸出的标簽。
當計算機要儲存一張圖檔的時候,他需要儲存三個獨立矩陣,分别來對應紅、綠、藍三個顔色通道,假設輸入圖檔是64*64像素的,那麼就有三個64*64的矩陣。上述圖檔表示的隻是5*4的。我們要把這些像素亮度都放入一個特征向量x中。用x來表示圖檔。
(x,y)表示一個單獨的樣本,x是nx維的特征向量,标簽y值為0或1,訓練信由m個訓練樣本構成
表示樣本一的輸入和輸出。
,這個整體就表示整個訓練集。
而
表示最後一樣樣本m的輸入與輸出,
來表示測試集的樣本數。
這就是一個1*m矩陣。以上是在logistic回歸和神經網絡中會用到的符号
logistic回歸
logistic回歸是一個學習算法,用在監督學習問題中輸出y标簽是0或1時。是一個二進制分類問題
已知輸入特征向量x是一張圖檔,要你識别出來,這是不是貓圖,需要運用算法給出一個預測值利用
表示y的預測值。
,當x滿足的話,那麼y=1。
x是n_x維向量,logistic回歸的參數是w也是一個n_x維向量,b是一個實數,如何預測
的值。
這時我們就需要sigmoid函數,以下是sigmoid(z)的圖像,用z來表示
logistic回歸損失函數
損失函數也可以叫誤差函數,它們可以用來衡量算法的運作情況,你可以定義損失為
與y的差的平方
,來衡量你的預測輸出值
和y的實際值有多接近。
定義一個成本函數j,衡量在全體訓練樣本上的表現。根據之前得到的兩個參數w和b,j(w,b)等于:
梯度下降法
成本函數是一種凸函數。
梯度下降法所做的就是從初始點開始,朝最陡的下坡方向走一步,在梯度下降一步後,可能會在那裡停下,因為它正試圖沿着最快下降的方向往下走,這是梯度下降的一次疊代,兩次疊代或許會到達那裡或者多次。
計算圖
這個是從左到右正向來進行計算的(正向傳播)
進行求導的話,這個是從右到左反向進行計算的(反向傳播)
一個計算流程圖,從左到右的進行計算成本函數j,這是正向傳播,然後你需要優化函數,反向從右到左計算導數這就是反向傳播
logistic回歸的梯度下降法