天天看點

Logistic回歸原理及公式推導

出去實習歸來,發現搞算法才是最有前途的事情了,故而心中發狠要好好學習算法上的東西,好好學習天天向上,狂補之前沒有學習的東西,決定花上一個學期的時間學習學習神經網絡,給自己掃掃盲

     原文見 http://blog.csdn.net/acdreamers/article/details/27365941

Logistic回歸為機率型非線性回歸模型,是研究二分類觀察結果

Logistic回歸原理及公式推導

與一些影響因素

Logistic回歸原理及公式推導

之間關系的一種多

變量分析方法。通常的問題是,研究某些因素條件下某個結果是否發生,比如醫學中根據病人的一些症狀來判斷它是

否患有某種病。

在講解Logistic回歸理論之前,我們先從LR分類器說起。LR分類器,即Logistic Regression Classifier。

在分類情形下,經過學習後的LR分類器是一組權值

Logistic回歸原理及公式推導

,當測試樣本的資料輸入時,這組權值與測試資料按

照線性加和得到

Logistic回歸原理及公式推導

這裡

Logistic回歸原理及公式推導

是每個樣本的

Logistic回歸原理及公式推導

個特征。

之後按照sigmoid函數的形式求出

Logistic回歸原理及公式推導

由于sigmoid函數的定義域為

Logistic回歸原理及公式推導

,值域為

Logistic回歸原理及公式推導

,是以最基本的LR分類器适合對兩類目标進行分類。

是以Logistic回歸最關鍵的問題就是研究如何求得

Logistic回歸原理及公式推導

這組權值。這個問題是用極大似然估計來做的。

下面正式地來講Logistic回歸模型。

考慮具有

Logistic回歸原理及公式推導

個獨立變量的向量

Logistic回歸原理及公式推導

,設條件慨率

Logistic回歸原理及公式推導

為根據觀測量相對于某事件

Logistic回歸原理及公式推導

發生的

機率。那麼Logistic回歸模型可以表示為

Logistic回歸原理及公式推導

這裡

Logistic回歸原理及公式推導

稱為Logistic函數。其中

Logistic回歸原理及公式推導

那麼在

Logistic回歸原理及公式推導

條件下

Logistic回歸原理及公式推導

不發生的機率為

Logistic回歸原理及公式推導

是以事件發生與不發生的機率之比為

Logistic回歸原理及公式推導

這個比值稱為事件的發生比(the odds of experiencing an event),簡記為odds。

對odds取對數得到

Logistic回歸原理及公式推導

可以看出Logistic回歸都是圍繞一個Logistic函數來展開的。接下來就講如何用極大似然估計求分類器的參數。

假設有

Logistic回歸原理及公式推導

個觀測樣本,觀測值分别為

Logistic回歸原理及公式推導

,設

Logistic回歸原理及公式推導

為給定條件下得到

Logistic回歸原理及公式推導

的機率,同樣地,

Logistic回歸原理及公式推導

的機率為

Logistic回歸原理及公式推導

,是以得到一個觀測值的機率為

Logistic回歸原理及公式推導

因為各個觀測樣本之間互相獨立,那麼它們的聯合分布為各邊緣分布的乘積。得到似然函數為

Logistic回歸原理及公式推導

然後我們的目标是求出使這一似然函數的值最大的參數估計,最大似然估計就是求出參數

Logistic回歸原理及公式推導

,使得

Logistic回歸原理及公式推導

取得最大值,對函數

Logistic回歸原理及公式推導

取對數得到

Logistic回歸原理及公式推導

繼續對這

Logistic回歸原理及公式推導

Logistic回歸原理及公式推導

分别求偏導,得到

Logistic回歸原理及公式推導

個方程,比如現在對參數

Logistic回歸原理及公式推導

求偏導,由于

Logistic回歸原理及公式推導

是以得到

Logistic回歸原理及公式推導

這樣的方程一共有

Logistic回歸原理及公式推導

個,是以現在的問題轉化為解這

Logistic回歸原理及公式推導

個方程形成的方程組。

上述方程比較複雜,一般方法似乎不能解之,是以我們引用了牛頓-拉菲森疊代方法求解。

利用牛頓疊代求多元函數的最值問題以後再講。。。

簡單牛頓疊代法:http://zh.m.wikipedia.org/wiki/%E7%89%9B%E9%A1%BF%E6%B3%95

實際上在上述似然函數求最大值時,可以用梯度上升算法,一直疊代下去。梯度上升算法和牛頓疊代相比,收斂速度

慢,因為梯度上升算法是一階收斂,而牛頓疊代屬于二階收斂。

繼續閱讀