zoukankan      html  css  js  c++  java
  • 【机器学习速成宝典】模型篇05朴素贝叶斯【Naive Bayes】(Python版)

    目录

      先验概率与后验概率

      条件概率公式、全概率公式、贝叶斯公式

      什么是朴素贝叶斯(Naive Bayes)

      拉普拉斯平滑(Laplace Smoothing)

      应用:遇到连续变量怎么办?(多项式分布,高斯分布)

      Python代码(sklearn库)


    先验概率与后验概率 

      引例

      想象有 A、B、C 三个不透明的碗倒扣在桌面上,已知其中有(且仅有)一个瓷碗下面盖住一个鸡蛋。此时请问,鸡蛋在 A 碗下面的概率是多少?答曰 1/3。
      现在发生一件事:有人揭开了 C 碗,发现 C 碗下面没有蛋。此时再问:鸡蛋在 A 碗下面的概率是多少?答曰 1/2。注意,由于有“揭开C碗发现鸡蛋不在C碗下面”这个新情况,对于“鸡蛋在 A 碗下面”这件事的主观概率由原来的 1/3 上升到了1/2。这里的先验概率就是 1/3,后验概率是 1/2。
    也就是说“先”和“后”是相对于引起主观概率变化的那个新情况而言的。

    
    

    条件概率公式、全概率公式、贝叶斯公式

      条件概率公式

      在事件B发生的条件下,A发生的概率

      换一种写法:

      理解了条件概率公式后,用一个引例介绍后面两个公式:村子里有三个小偷,事件B={村子失窃},已知小偷们的偷窃成功率依次是,除夕夜去偷的概率依次是

      全概率公式

      求:村庄除夕夜失窃的概率

      

     

      贝叶斯公式

      求:在村子失窃的条件下,偷窃者是某个小偷的概率

      

    什么是朴素贝叶斯(Naive Bayes) 

      引例

      有一个训练集包含100个人,特征1是皮肤颜色(黑、黄)、特征2是个人资产情况(富、穷),标记是地区(非洲、亚洲)。在训练集中有60个非洲人(黑穷*47, 黑富*1, 黄穷*11, 黄富*1),有40个亚洲人(黑穷*1, 黄穷*32, 黄富*7)。请分别训练一个朴素贝叶斯模型。(作者这里不存在任何人种歧视的观点)

      先计算先验概率:

      再计算每一个特征的条件概率:

      到此,已经完成了朴素贝叶斯模型所有参数的计算,模型学习完毕。

      假设新来了一个人,他的特征是【[黑,穷],地区=?】,请用朴素贝叶斯模型预测一下他的地区。

      

      根据计算结果,模型会将这个人的地区预测为非洲。

     

      二娃:你这个例子扯了这么半天,虽然我看明白了整套训练和预测的过程,可是,如何哪里体现了“朴素”和“贝叶斯”呢?

      先说“朴素”,在例子中的体现就是:假设特征间是独立的(忽略皮肤颜色和资产情况的联系)。从而变成了“低配版的贝叶斯模型”,称为“朴素贝叶斯”。优点是可以减少需要估计的参数的个数;缺点是会牺牲一定的分类准确率。

      再说“贝叶斯”,例子中公式的推倒都是朴素贝叶斯,如果是贝叶斯的话预测的公式是:

    可以发现,朴素贝叶斯模型需要计算的参数个数为:

    是线性增长的;而贝叶斯模型需要计算的参数个数为:

    是指数增长的,实际是不可行的。

      翠花:能不能用简练的语言叙述朴素贝叶斯的工作原理?

      训练:先根据数据集,计算标记(地区)的先验概率,再计算每一个特征(肤色和财产)的条件概率。

      预测:当一个训练集外的黑穷人来报道,假设特征间是独立的,朴素贝叶斯模型会预测他的老家是非洲的,原理就是“非洲人里黑人的比例 * 非洲人里穷人的比例 > 亚洲人里黑人的比例 * 亚洲人里穷人的比例”。这个乘积其实就是后验概率,贝叶斯模型会将实例分到后验概率最大的类中。

     

       李航《统计学习方法》中的定义

      朴素贝叶斯(naive Bayes) 法是基于贝叶斯定理与特征条件独立假设的分类方法。对于给定的训练数据集,首先基于特征条件独立假设学习输入/输出的联合概率分布;然后基于此模型,对给定的输入x,利用贝叶斯定理求出后验概率最大的输出y。朴素贝叶斯法实现简单,学习与预测的效率都很高,是一种常用的方法。

    拉普拉斯平滑(Laplace Smoothing)

      继续上文的引例,考虑一个这样的问题:如果已知“某人的地区完全依靠其肤色的就能确定,资产情况是一个对判断地区没有参考价值的特征”,当来了一个黑穷人的时候,我们要算

    如果根据训练集计算出,发现(式1)<(式2),则把一个黑穷人预测为亚洲人,分类产生偏差了。原因在于:如果出现某个要估计的概率值为0的情况时,会影响到后验概率的计算结果。

      解决这一问题的方法是使用平滑操作,即令先验概率公式变为:

    每个特征的条件概率公式变为:

      式子中,等价于在随机变量各个取值的频数上赋予一个正数,当时,称为拉普拉斯平滑。

     

      这里附一个李航《统计学习方法》中的例子

    应用:遇到连续变量怎么办?(多项式分布,高斯分布)

      首先了解下多项式分布、正态分布

      多项式分布

      我们扔一个骰子,重复扔n次,点数1~6的出现次数分别为(x1,x2,x3,x4,x5,x6)时的概率构成多项式分布。

      正态分布(高斯分布)

      正态曲线呈钟型,两头低,中间高,左右对称因其曲线呈钟形,因此人们又经常称之为钟形曲线。

      引例中的朴素贝叶斯模型假设特征的条件概率分布满足多项式分布。

      当特征是连续变量的时候,运用多项式朴素贝叶斯分类器模型就会导致很多待估测的参数是0(不做平滑的情况下),此时即使做平滑,所得到的条件概率也难以描述真实情况。所以处理连续的特征变量,应该采用高斯朴素贝叶斯分类器模型(假设特征的条件概率分布满足正态分布)。

      举个例子(维基百科):

      我们要做一个性别分类,观测的特征包括:身高、体重、脚的尺寸。

      现有训练集:

      根据训练集计算一些参数:

      要对测试集进行性别预测:

      计算过程:

      结果:预测为女性的概率高于预测为男性的概率,因此,将其预测为女性。

    Python代码(sklearn库)

    # -*- coding: utf-8 -*-
    import numpy as np
    from sklearn.datasets import load_iris
    from sklearn import naive_bayes
    
    iris = load_iris()
    trainX = iris.data
    trainY = iris.target
    clf=naive_bayes.GaussianNB()  #高斯分布,没有参数
    # clf=naive_bayes.MultinomialNB()  #多项式分布
    
    clf.fit(trainX,trainY)
    print "训练准确率:" + str(clf.score(trainX,trainY))
    print "测试准确率:" + str(clf.score(trainX,trainY))
    
    '''
    训练准确率:0.96
    测试准确率:0.96
    '''
  • 相关阅读:
    JS实现前台表格排序功能
    openoffice安装手记
    OpenOffice 实现OFFICE在线预览
    毫秒事件转换小方法
    axis2 jar包详解及缺少jar包异常分析
    Android EditText控件完美实现只读(ReadOnly/NonEditable)
    android:获取联系人信息(姓名和电话)
    dex2jar.bat反编译apk的classes.dex文件错误:
    服务器压力测试系列二:服务器监控工具tsar安装
    memcache list all keys
  • 原文地址:https://www.cnblogs.com/itmorn/p/7905975.html
Copyright © 2011-2022 走看看