天天看點

邏輯回歸:線性二分類和非線性激活

目錄

背景介紹

邏輯回歸

邏輯回歸屬于線性分類器?

神經網絡

交叉熵與KL散度

激活函數

自然邏輯

背景介紹

比如,當已知y的區間為[0, 1] 時,線性回歸就保證不了預測值屬于這個區間。

邏輯回歸:線性二分類和非線性激活

Selva Prabhakaran blog

邏輯回歸

Logistic Regression:二分類線性分類器。

邏輯回歸:線性二分類和非線性激活

NG cs229

邏輯回歸屬于線性分類器?

邏輯回歸是個二分類器(binary classification)。

雖說邏輯函數是"S"形曲線,但其分類邊界還是一條直線,是以歸為線性分類器。

由于S形曲線,輸入很大或很小時,輸出并不敏感,能有效處理一些異常資料。

邏輯回歸:線性二分類和非線性激活

神經網絡

邏輯回歸可以看作沒有隐藏層的多層感覺機(MLP): 

邏輯回歸:線性二分類和非線性激活

其深度學習實作如下:

邏輯回歸:線性二分類和非線性激活

PaddlePaddle

交叉熵與KL散度

邏輯歸回最大化log似然,等價于最小化交叉熵。

邏輯回歸:線性二分類和非線性激活

KL散度用于衡量兩個分布距離,當兩個分布相同時,KL散度為0。

如下定義可知,KL散度是兩個分布的相對熵,即兩分布的交叉熵與真實分布熵的差,而真實分布P的熵是固定不變的,是以二者是一緻的。 

邏輯回歸:線性二分類和非線性激活

koller pgm

激活函數

在深度神經網絡中,sigmoid是常見的激活函數,主要讓映射關系變得非線性,增加網絡近似能力。

邏輯回歸:線性二分類和非線性激活

如果MLP中使用的都是sigmoid激活函數,整個神經網絡可以看作是邏輯回歸的多層遞歸。

由于sigmoid激活函數在x很大或很小時,out的值基本不變,進入飽和區,此時梯度很小趨于0,這樣在反向傳播梯度學習時,學習會變得很慢。 

自然邏輯

0、1邏輯,中間接近線性、過大過小趨于穩定,直覺上,這是很自然的一種平滑。

這種看似簡易的非線性,經過多層遞歸,卻能表達任意函數。

繼續閱讀