天天看點

神經網絡基礎

二分分類

logistic回歸是一個用于二分分類的算法。

這裡有一個二分分類的例子:

假如有一個圖檔,内容是一隻貓

神經網絡基礎

 把這張圖檔作為我們要輸入的内容。想要識别此圖的标簽,如果是貓的話,就輸出 1,如果不是的話就輸出0。用變量‘y’來表示輸出的标簽。

神經網絡基礎

 當計算機要儲存一張圖檔的時候,他需要儲存三個獨立矩陣,分别來對應紅、綠、藍三個顔色通道,假設輸入圖檔是64*64像素的,那麼就有三個64*64的矩陣。上述圖檔表示的隻是5*4的。我們要把這些像素亮度都放入一個特征向量x中。用x來表示圖檔。

神經網絡基礎

 (x,y)表示一個單獨的樣本,x是nx維的特征向量,标簽y值為0或1,訓練信由m個訓練樣本構成

神經網絡基礎

表示樣本一的輸入和輸出。

神經網絡基礎

,這個整體就表示整個訓練集。

 而

神經網絡基礎

表示最後一樣樣本m的輸入與輸出,

神經網絡基礎

來表示測試集的樣本數。

神經網絡基礎
神經網絡基礎

 這就是一個1*m矩陣。以上是在logistic回歸和神經網絡中會用到的符号

logistic回歸

logistic回歸是一個學習算法,用在監督學習問題中輸出y标簽是0或1時。是一個二進制分類問題

已知輸入特征向量x是一張圖檔,要你識别出來,這是不是貓圖,需要運用算法給出一個預測值利用

神經網絡基礎

表示y的預測值。

神經網絡基礎

,當x滿足的話,那麼y=1。

x是n_x維向量,logistic回歸的參數是w也是一個n_x維向量,b是一個實數,如何預測

神經網絡基礎

的值。

這時我們就需要sigmoid函數,以下是sigmoid(z)的圖像,用z來表示

神經網絡基礎
神經網絡基礎
神經網絡基礎

 logistic回歸損失函數

損失函數也可以叫誤差函數,它們可以用來衡量算法的運作情況,你可以定義損失為

神經網絡基礎

 與y的差的平方

神經網絡基礎

,來衡量你的預測輸出值

神經網絡基礎

和y的實際值有多接近。

神經網絡基礎
神經網絡基礎
神經網絡基礎

定義一個成本函數j,衡量在全體訓練樣本上的表現。根據之前得到的兩個參數w和b,j(w,b)等于:

神經網絡基礎

 梯度下降法

神經網絡基礎

 成本函數是一種凸函數。

梯度下降法所做的就是從初始點開始,朝最陡的下坡方向走一步,在梯度下降一步後,可能會在那裡停下,因為它正試圖沿着最快下降的方向往下走,這是梯度下降的一次疊代,兩次疊代或許會到達那裡或者多次。

計算圖

神經網絡基礎

 這個是從左到右正向來進行計算的(正向傳播)

神經網絡基礎

 進行求導的話,這個是從右到左反向進行計算的(反向傳播)

一個計算流程圖,從左到右的進行計算成本函數j,這是正向傳播,然後你需要優化函數,反向從右到左計算導數這就是反向傳播

logistic回歸的梯度下降法

繼續閱讀