天天看点

逻辑回归(Logistic Regression)前言原理及用途实现步骤具体实现

前言

最近因为要做一个预测性的工程从而学到了逻辑回归(Logistic Regression),看了很多的资料以及一些论坛上的博文,发现了很多不错的资料,也发现了一些不足甚至是错误的地方。因此,在这里我重新从自己的视角以及理解写一下我对逻辑回归的认识,纠正一些科普资料中的错误,再加上自己的学习过程。

如果有错误或者不足的地方欢迎看到的人批评指正,相互交流。

原理及用途

回归从表现出形式上讲就是给定一些点集,找出一条曲线去拟合。从数学公式的角度讲,就是在已经大概知道函数形式的时候,用给出的训练样本确定函数中未知的参数。所以在进行回归时,根据已有经验找到一个合适形式的预测函数非常重要。假如说预测函数的分布是非线性的,而我们选择了一个线性函数来预测,就会造成较大的偏差。其实逻辑回归就是在线性回归的基础上加了一个逻辑函数,但是这个逻辑函数非常重要,造就了逻辑回归在分类问题中的重要地位。

逻辑回归经常应用于分类问题,特别是“二分类”。就是预测结果只有两种“0”或者“1”。具体的用途有:

  • 分析行为:根据某人的行为习惯分析用户某个行为会不会发生。
  • 判断预测:根据建立的模型,分析在某些自变量集合下,是否会发生某种疾病。

实现步骤

  1. 首先是找到一个合适形式的预测函数,称为 hθ 函数,即hypothesis。
  2. 构造损失函数,主要分为(1)0-1损失函数,称为Cost函数,(2)平方损失函数,称为 j(θ) 。
  3. j(θ) 函数的值越小表示预测的函数越准确,所以用logistic regression的方法求出 j(θ) 取最小值时函数的参数 θ 。

具体实现

构造预测函数

由于是“二分类”问题,所以这里要用到Logistic函数,也叫做Sigmoid函数,函数的形式为

g(z)=11+e−z

Sigmoid函数的推导过程是:令 y=logp1−p

y=log(p/(1−p))⇔ey=p/(1−p)⇔ey=p+eyp⇔p=ey1+ey⇔p=11+e−y

该函数对应的图像是:

逻辑回归(Logistic Regression)前言原理及用途实现步骤具体实现

从图像可以看出p在[0,1]之间,在解决二分类问题的时候可以设定一个阈值,当p>阈值的时候分为类别A,当P<阈值的时候分为类别B。

推理过程

下面分析一下可能会遇到的问题,然后分析预测函数h的形式:

线性边界:

逻辑回归(Logistic Regression)前言原理及用途实现步骤具体实现

首先以线性边界的情况来讨论,线性边界的边界形式为:

θ0+θ1x1+⋯+θnxn=∑i=0nθixi=θTx

构造预测函数 hθ :

hθ=g(θTx)=11+e−θTx

hθ 表示预测结果取1的概率,那么预测结果取0的概率可以表示为 1−hθ :

P(y=1|x;θ)=hθ(x)P(y=0|x;θ)=1−hθ(x)

该式还可以写成 P(y|x;θ)=(hθ(x))y(1−hθ(x))1−y 。

使用最大似然估计:

L(θ)=∏i=1m(hθ(x(i)))y(i)(1−hθ(x(i)))1−y(i)

两边同时取对数:

l(θ)=logL(θ)=∑i=1m(y(i)hθ(x(i))+(1−y(i))(1−hθ(x(i))))

当 l(θ) 取得最大值时的 θ 就是最佳的 θ 的取值。

根据上式构造0-1损失函数和平方损失函数:

Cost(hθ(x),y)={−loghθ(x)−log(1−hθ(x))y=1y=0

J(θ)=1m∑i=1m(Cost(hθ(x(i))),y(i))=−1m∑i=1m(y(i)loghθ(x(i))+(1−y(i))(1−log(1−hθ(x(i))))

J(θ)=−1ml(θ) ,所以求 l(θ) 的最大值就是求 J(θ) 的最小值。

在这里使用梯度下降的方法求 J(θ) 的最小值,关于梯度下降的介绍见,梯度下降是一个不断地迭代求最小值的方法。简单的形容就是:

WantminθJ(θ)Repeat{θj:=θj−α∂∂θjj(θ)}

其中 θj:=θj−α∂∂θjJ(θ) 就是梯度下降法的公式, θj: 是 θj 经过迭代后的下一次状态。整个迭代过程终止的条件是 ∂∂θjJ(θ) 的结果趋近于0。

化简 ∂∂θjJ(θ) :

∂∂θjJ(θ)=−1m∑i=1m[y(i)1hθ(x(i))∂∂θjhθ(x(i))−(1−y(i))11−hθ(x(i))∂∂θjhθ(x(i))]=−1m∑i=1m(y(i)1g(θTx(i))−(1−y(i))11−g(θTx(i)))∂∂θjg(θTx(i))=−1m∑i=1m(y(i)1g(θTx(i))−(1−y(i))11−g(θTx(i)))g(θTx(i))(1−g(θTx(i)))∂∂θj(θTx(i))=−1m∑i=1my(i)(1−g(θTx(i)))−(1−y(i))g(θTx(i))g(θTx(i))(1−g(θTx(i)))g(θTx(i))(1−g(θTx(i)))∂∂θjθTx(i)(j)=−1m∑i=1m(y(i)−g(θTx(i)))x(i)(j)=1m∑i=1m(hθ(x(i))−y(i))x(i)(j)

上述过程都属于微积分中求偏导的过程,不熟悉的可以再看下微积分的知识。

求偏导过程中要用到的知识:

h(x)∂∂xh(x)=11+eg(x)=1(1+eg(x))2eg(x)∂∂xg(x)=h(x)(1−h(x))∂∂xg(x)

因为 α 是一个常数,所以 α1m 仍然是一个常数,所以式中的 1m 可以省略。所以 θj:=θj−α∂∂θjJ(θ) 可以化简为:

θj:=θj−α∑i=1m(hθ(x(i))−y(i))x(i)(j);(j=0,1,…,n)

上式就是梯度下降法求解的最终公式:

WantminθJ(θ)Repeat{θj:=θj−α∑i=1m(hθ(x(i))−y(i))x(i)(j))}

对于训练样本:

X=⎡⎣⎢⎢⎢⎢⎢⎢x(1)0x(2)0⋮x(m)0x(1)1x(2)1⋮x(m)1……⋮…x(1)nx(2)n⋮x(m)n⎤⎦⎥⎥⎥⎥⎥⎥,Y=⎡⎣⎢⎢⎢⎢⎢y(1)y(2)⋮y(m)⎤⎦⎥⎥⎥⎥⎥

可以求出 θ 的值:

⎧⎩⎨⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪θ0=θ0−α∑mi=1(hθ(x(i))−y(i))x(i)(0))θ1=θ1−α∑mi=1(hθ(x(i))−y(i))x(i)(1))……………………θm=θm−α∑mi=1(hθ(x(i))−y(i))x(i)(m))

至此逻辑回归过程结束。

对于具体的训练样本数据,逻辑回归所起到的作用如表所示:

数据 分类 预测结果1 分类结果1 预测结果2 分类结果2
10 1 1 1 0.1
9 1 0.9 1 0.9 1
8 1 0.8 1 0.8 1
7 1 0.7 1 0.7 1
6 1 0.5 0.6 1
5 0.6 1 0.5
4 0.4 0.4
3 0.3 0.3
2 0.2 0.2
1 0.1 1 1

并且可以看出训练结果1的效果要好于训练结果2。

代码实现

import matplotlib.pyplot as plt
from numpy import *


def loadDataSet():
    dataMat = []; labelMat = []
    fr = open(r'C:\Users\crystal\Desktop\testSet-LR.txt')
    for line in fr.readlines():
        lineArr = line.strip().split()
        dataMat.append([, float(lineArr[]), float(lineArr[])])
        labelMat.append(int(lineArr[]))
    return dataMat,labelMat

def sigmoid(inX):
    return /(+exp(-inX))

def gradAscent(dataMatIn, classLabels):
    dataMatrix = mat(dataMatIn)             #convert to NumPy matrix
    labelMat = mat(classLabels).transpose() #convert to NumPy matrix

    m,n = shape(dataMatrix)
    alpha = 
    maxCycles = 
    weights = ones((n,))

    for k in range(maxCycles):              #heavy on matrix operations
        h = sigmoid(dataMatrix*weights)     #matrix mult
        error = (labelMat - h)              #vector subtraction
        weights = weights + alpha * dataMatrix.transpose()* error #matrix mult
    return weights

def GetResult():
    dataMat,labelMat=loadDataSet()
    weights=gradAscent(dataMat,labelMat)
    print (weights)
    plotBestFit(weights)


def plotBestFit(weights):

    dataMat,labelMat=loadDataSet()
    dataArr = array(dataMat)
    n = shape(dataArr)[] 
    xcord1 = []; ycord1 = []
    xcord2 = []; ycord2 = []
    for i in range(n):
        if int(labelMat[i])== :
            xcord1.append(dataArr[i,]); ycord1.append(dataArr[i,])
        else:
            xcord2.append(dataArr[i,]); ycord2.append(dataArr[i,])
    fig = plt.figure()
    ax = fig.add_subplot()
    ax.scatter(xcord1, ycord1, s=, c='red', marker='s')
    ax.scatter(xcord2, ycord2, s=, c='green')
    x = arange(-, , )   
    y=(*x+)/()
#     y = (-weights[0]-weights[1]*x)/weights[2]    
    ax.plot(x,y)
    plt.xlabel('X1'); plt.ylabel('X2');
    plt.show()    

if __name__=='__main__':
    GetResult()
           

训练结果

逻辑回归(Logistic Regression)前言原理及用途实现步骤具体实现

参考资料:

1.http://www.360doc.com/content/14/0912/08/14875906_408823529.shtml

2.http://blog.csdn.net/pakko/article/details/37878837

3.http://blog.csdn.net/dongtingzhizi/article/details/15962797

4.http://blog.csdn.net/abcjennifer/article/details/7716281

5.http://blog.csdn.net/woxincd/article/details/7040944

继续阅读