zoukankan      html  css  js  c++  java
  • 机器学习-朴素贝叶斯

    一、概述

    朴素贝叶斯是贝叶斯决策理论的一部分,所以在讲述朴素贝叶斯之前有必要快速了解一下贝叶斯决策理论。

    1、贝叶斯决策理论

    假设现在我们有一个数据集,它由两类数据组成,数据分布如下图所示:

    机器学习实战教程(四):朴素贝叶斯基础篇之言论过滤器

    我们现在用p1(x,y)表示数据点(x,y)属于类别1(图中红色圆点表示的类别)的概率,用p2(x,y)表示数据点(x,y)属于类别2(图中蓝色三角形表示的类别)的概率,那么对于一个新数据点(x,y),可以用下面的规则来判断它的类别:

    • 如果p1(x,y)>p2(x,y),那么类别为1
    • 如果p1(x,y)<p2(x,y),那么类别为2

    也就是说,我们会选择高概率对应的类别。这就是贝叶斯决策理论的核心思想,即选择具有最高概率的决策。已经了解了贝叶斯决策理论的核心思想,那么接下来,就是学习如何计算p1和p2概率。

    2、条件概率

    在学习计算p1 和p2概率之前,我们需要了解什么是条件概率(Conditional probability),就是指在事件B发生的情况下,事件A发生的概率,用P(A|B)来表示。

    机器学习实战教程(四):朴素贝叶斯基础篇之言论过滤器

    根据文氏图,可以很清楚地看到在事件B发生的情况下,事件A发生的概率就是P(A∩B)除以P(B)。

    机器学习实战教程(四):朴素贝叶斯基础篇之言论过滤器

    因此,

    机器学习实战教程(四):朴素贝叶斯基础篇之言论过滤器

    同理可得,

    机器学习实战教程(四):朴素贝叶斯基础篇之言论过滤器

    所以,

    机器学习实战教程(四):朴素贝叶斯基础篇之言论过滤器

    机器学习实战教程(四):朴素贝叶斯基础篇之言论过滤器

    这就是条件概率的计算公式。

    3、全概率公式

    除了条件概率以外,在计算p1和p2的时候,还要用到全概率公式,因此,这里继续推导全概率公式。

    假定样本空间S,是两个事件A与A'的和。

    机器学习实战教程(四):朴素贝叶斯基础篇之言论过滤器

    上图中,红色部分是事件A,绿色部分是事件A',它们共同构成了样本空间S。

    在这种情况下,事件B可以划分成两个部分。

    机器学习实战教程(四):朴素贝叶斯基础篇之言论过滤器

    机器学习实战教程(四):朴素贝叶斯基础篇之言论过滤器

    在上一节的推导当中,我们已知

    机器学习实战教程(四):朴素贝叶斯基础篇之言论过滤器

    所以,

    机器学习实战教程(四):朴素贝叶斯基础篇之言论过滤器

    这就是全概率公式。它的含义是,如果A和A'构成样本空间的一个划分,那么事件B的概率,就等于A和A'的概率分别乘以B对这两个事件的条件概率之和。

    将这个公式代入上一节的条件概率公式,就得到了条件概率的另一种写法:

    机器学习实战教程(四):朴素贝叶斯基础篇之言论过滤器

    4、贝叶斯推断

    对条件概率公式进行变形,可以得到如下形式:

    机器学习实战教程(四):朴素贝叶斯基础篇之言论过滤器

    我们把P(A)称为"先验概率"(Prior probability),即在B事件发生之前,我们对A事件概率的一个判断。

    P(A|B)称为"后验概率"(Posterior probability),即在B事件发生之后,我们对A事件概率的重新评估。

    P(B|A)/P(B)称为"可能性函数"(Likelyhood),这是一个调整因子,使得预估概率更接近真实概率。

    所以,条件概率可以理解成下面的式子:

    这就是贝叶斯推断的含义。我们先预估一个"先验概率",然后加入实验结果,看这个实验到底是增强还是削弱了"先验概率",由此得到更接近事实的"后验概率"。

    在这里,如果"可能性函数"P(B|A)/P(B)>1,意味着"先验概率"被增强,事件A的发生的可能性变大;如果"可能性函数"=1,意味着B事件无助于判断事件A的可能性;如果"可能性函数"<1,意味着"先验概率"被削弱,事件A的可能性变小。

    为了加深对贝叶斯推断的理解,我们举一个例子。

    机器学习实战教程(四):朴素贝叶斯基础篇之言论过滤器

    两个一模一样的碗,一号碗有30颗水果糖和10颗巧克力糖,二号碗有水果糖和巧克力糖各20颗。现在随机选择一个碗,从中摸出一颗糖,发现是水果糖。请问这颗水果糖来自一号碗的概率有多大?

    我们假定,H1表示一号碗,H2表示二号碗。由于这两个碗是一样的,所以P(H1)=P(H2),也就是说,在取出水果糖之前,这两个碗被选中的概率相同。因此,P(H1)=0.5,我们把这个概率就叫做"先验概率",即没有做实验之前,来自一号碗的概率是0.5。

    再假定,E表示水果糖,所以问题就变成了在已知E的情况下,来自一号碗的概率有多大,即求P(H1|E)。我们把这个概率叫做"后验概率",即在E事件发生之后,对P(H1)的修正。

    根据条件概率公式,得到

    机器学习实战教程(四):朴素贝叶斯基础篇之言论过滤器

    已知,P(H1)等于0.5,P(E|H1)为一号碗中取出水果糖的概率,等于30÷(30+10)=0.75,那么求出P(E)就可以得到答案。根据全概率公式,

    机器学习实战教程(四):朴素贝叶斯基础篇之言论过滤器

    所以,

    机器学习实战教程(四):朴素贝叶斯基础篇之言论过滤器

    将数字代入原方程,得到

    机器学习实战教程(四):朴素贝叶斯基础篇之言论过滤器

    这表明,来自一号碗的概率是0.6。也就是说,取出水果糖之后,H1事件的可能性得到了增强。

    同时再思考一个问题,在使用该算法的时候,如果不需要知道具体的类别概率,即上面P(H1|E)=0.6,只需要知道所属类别,即来自一号碗,我们有必要计算P(E)这个全概率吗?要知道我们只需要比较 P(H1|E)和P(H2|E)的大小,找到那个最大的概率就可以。既然如此,两者的分母都是相同的,那我们只需要比较分子即可。即比较P(E|H1)P(H1)和P(E|H2)P(H2)的大小,所以为了减少计算量,全概率公式在实际编程中可以不使用。

    5、朴素贝叶斯推断

    理解了贝叶斯推断,那么让我们继续看看朴素贝叶斯。贝叶斯和朴素贝叶斯的概念是不同的,区别就在于“朴素”二字,朴素贝叶斯对条件个概率分布做了条件独立性的假设。 比如下面的公式,假设有n个特征:

    机器学习实战教程(四):朴素贝叶斯基础篇之言论过滤器

    由于每个特征都是独立的,我们可以进一步拆分公式 :

    机器学习实战教程(四):朴素贝叶斯基础篇之言论过滤器

    这样我们就可以进行计算了。如果有些迷糊,让我们从一个例子开始讲起,你会看到贝叶斯分类器很好懂,一点都不难。

    某个医院早上来了六个门诊的病人,他们的情况如下表所示:

    机器学习实战教程(四):朴素贝叶斯基础篇之言论过滤器

    现在又来了第七个病人,是一个打喷嚏的建筑工人。请问他患上感冒的概率有多大?

    根据贝叶斯定理:

    机器学习实战教程(四):朴素贝叶斯基础篇之言论过滤器

    可得:

    机器学习实战教程(四):朴素贝叶斯基础篇之言论过滤器

    根据朴素贝叶斯条件独立性的假设可知,"打喷嚏"和"建筑工人"这两个特征是独立的,因此,上面的等式就变成了

    机器学习实战教程(四):朴素贝叶斯基础篇之言论过滤器

    这里可以计算:

    机器学习实战教程(四):朴素贝叶斯基础篇之言论过滤器

    因此,这个打喷嚏的建筑工人,有66%的概率是得了感冒。同理,可以计算这个病人患上过敏或脑震荡的概率。比较这几个概率,就可以知道他最可能得什么病。

    这就是贝叶斯分类器的基本方法:在统计资料的基础上,依据某些特征,计算各个类别的概率,从而实现分类。

    同样,在编程的时候,如果不需要求出所属类别的具体概率,P(打喷嚏) = 0.5和P(建筑工人) = 0.33的概率是可以不用求的。

    二、算法

    朴素贝叶斯

    三、使用

    代码部分待更新......

    四、参数

    使用Sklearn构建朴素贝叶斯分类器

    数据已经处理好了,接下来就可以使用sklearn构建朴素贝叶斯分类器了。

    官方英文文档地址:https://scikit-learn.org/dev/modules/generated/sklearn.naive_bayes.MultinomialNB.html

    朴素贝叶斯是一类比较简单的算法,scikit-learn中朴素贝叶斯类库的使用也比较简单。相对于决策树,KNN之类的算法,朴素贝叶斯需要关注的参数是比较少的,这样也比较容易掌握。在scikit-learn中,一共有3个朴素贝叶斯的分类算法类。分别是GaussianNB,MultinomialNB和BernoulliNB。其中GaussianNB就是先验为高斯分布的朴素贝叶斯,MultinomialNB就是先验为多项式分布的朴素贝叶斯,而BernoulliNB就是先验为伯努利分布的朴素贝叶斯

    机器学习实战教程(五):朴素贝叶斯实战篇之新浪新闻分类

    对于新闻分类,属于多分类问题。我们可以使用MultinamialNB()完成我们的新闻分类问题。另外两个函数的使用暂且不再进行扩展,可以自行学习。MultinomialNB假设特征的先验概率为多项式分布,即如下式:

    机器学习实战教程(五):朴素贝叶斯实战篇之新浪新闻分类

    其中, P(Xj = Xjl | Y = Ck)是第k个类别的第j维特征的第l个取值条件概率mk是训练集中输出为第k类的样本个数。λ为一个大于0的常数,常常取值为1,即拉普拉斯平滑,也可以取其他值。

    接下来,我们看下MultinamialNB这个函数,只有3个参数:

    机器学习实战教程(五):朴素贝叶斯实战篇之新浪新闻分类

    参数说明如下:

    • alpha:浮点型可选参数,默认为1.0,其实就是添加拉普拉斯平滑,即为上述公式中的λ ,如果这个参数设置为0,就是不添加平滑;
    • fit_prior:布尔型可选参数,默认为True。布尔参数fit_prior表示是否要考虑先验概率,如果是false,则所有的样本类别输出都有相同的类别先验概率。否则可以自己用第三个参数class_prior输入先验概率,或者不输入第三个参数class_prior让MultinomialNB自己从训练集样本来计算先验概率,此时的先验概率为P(Y=Ck)=mk/m。其中m为训练集样本总数量,mk为输出为第k类别的训练集样本数。
    • class_prior:可选参数,默认为None。

    总结如下:

    机器学习实战教程(五):朴素贝叶斯实战篇之新浪新闻分类

    除此之外,MultinamialNB也有一些方法供我们使用:

    机器学习实战教程(五):朴素贝叶斯实战篇之新浪新闻分类

    MultinomialNB一个重要的功能是有partial_fit方法,这个方法的一般用在如果训练集数据量非常大,一次不能全部载入内存的时候。这时我们可以把训练集分成若干等分,重复调用partial_fit来一步步的学习训练集,非常方便。GaussianNB和BernoulliNB也有类似的功能。 在使用MultinomialNB的fit方法或者partial_fit方法拟合数据后,我们可以进行预测。此时预测有三种方法,包括predict,predict_log_proba和predict_proba。predict方法就是我们最常用的预测方法,直接给出测试集的预测类别输出。predict_proba则不同,它会给出测试集样本在各个类别上预测的概率。容易理解,predict_proba预测出的各个类别概率里的最大值对应的类别,也就是predict方法得到类别predict_log_proba和predict_proba类似,它会给出测试集样本在各个类别上预测的概率的一个对数转化。转化后predict_log_proba预测出的各个类别对数概率里的最大值对应的类别,也就是predict方法得到类别。具体细节不再讲解,可参照官网手册。

    五、特别之处

    朴素贝叶斯推断的一些优点:

    • 生成式模型,通过计算概率来进行分类,可以用来处理多分类问题。
    • 对小规模的数据表现很好,适合多分类任务,适合增量式训练,算法也比较简单。

    朴素贝叶斯推断的一些缺点:

    • 对输入数据的表达形式很敏感。
    • 由于朴素贝叶斯的“朴素”特点,所以会带来一些准确率上的损失。
    • 需要计算先验概率,分类决策存在错误率。

    总结

    • 在训练朴素贝叶斯分类器之前,要处理好训练集,文本的清洗还是有很多需要学习的东西。
    • 根据提取的分类特征将文本向量化,然后训练朴素贝叶斯分类器。
    • 去高频词汇数量的不同,对结果也是有影响的的。
    • 拉普拉斯平滑对于改善朴素贝叶斯分类器的分类效果有着积极的作用。

    感谢:机器学习实战教程(五):朴素贝叶斯实战篇之新浪新闻分类 | Jack Cui

  • 相关阅读:
    [转]char、varchar、nchar、nvarchar的区别
    【转】Asp.net 2.0中页的生存周期(Lifecycle)和动态控件 [.Net]
    git免登录sshkey
    ios8,xcode6 周边
    iOS 推送证书
    Lazarus中TreeView导出XML以及XML导入TreeView
    flac文件提取专辑封面手记
    Lazarus解决含中文文件名或路径的使用问题
    使用PowerShell管理Windows8应用
    thbgm拆包【in progress】
  • 原文地址:https://www.cnblogs.com/2019-02-11/p/10597173.html
Copyright © 2011-2022 走看看