天天看点

朴素贝叶斯的学习与分类

朴素贝叶斯基于贝叶斯定理,它假设输入随机变量的特征值是条件独立的,故称之为“朴素”。简单介绍贝叶斯定理:

朴素贝叶斯的学习与分类

乍看起来似乎是要求一个概率,还要先得到额外三个概率,有用么?其实这个简单的公式非常贴切人类推理的逻辑,即通过可以观测的数据,推测不可观测的数据。举个例子,也许你在办公室内不知道外面天气是晴天雨天,但是你观测到有同事带了雨伞,那么可以推断外面八成在下雨。

若X 是要输入的随机变量,则Y 是要输出的目标类别。对X 进行分类,即使求的使P(Y|X) 最大的Y值。若X 为n 维特征变量 X = {A1, A2, …..An} ,若输出类别集合为Y = {C1, C2, …. Cm} 。

X 所属最有可能类别 y = argmax P(Y|X), 进行如下推导:

朴素贝叶斯的学习与分类

  

         有公式可知,欲求分类结果,须知如下变量:

各个类别的条件概率,

朴素贝叶斯的学习与分类

输入随机变量的特质值的条件概率

朴素贝叶斯的学习与分类

l  朴素贝叶斯分类实现简单,预测的效率较高

l  朴素贝叶斯成立的假设是个特征向量各个属性条件独立,建模的时候需要特别注意

示例代码: