zoukankan      html  css  js  c++  java
  • 第四章:朴素贝叶斯(bayes)

      贝叶斯分类器是基于概率计算的一种分类器,即测试特征分别算属于每个类别的概率,它里面也包含很多算法,比如,朴素贝叶斯、半朴素贝叶斯、EM算法等等。这里主要说朴素贝叶斯。

      贝叶斯公式:,对于分类也就是。因为计算时,分母都一样,所以可以不用计算,故难点在于算右边分子P(特征|类别)。

    朴素贝叶斯之所以叫朴素,因为它这里做了两个假设来简化P(特征|类别)的计算。假设:所有特征是独立的,即相互之间的概率不影响;且特征同等重要,即权重一样。

    在假设条件下,P(特征|类别)=P(特征1|类别)*P(特征2|类别)*...*P(特征n|类别)。如果还不能理解,可以看这篇文章中嫁不嫁的例子

      

      书中这章将朴素贝叶斯主要是也三个例子为主,1)留言板文档分类(是不是侮辱性的)。2)过滤垃圾邮件。3)从个人广告中获取区域倾向。这里将也第一个例子编写贝叶斯模块。

    步骤:1)因为是文档,里面的内容是单词,肯定先转换为数值向量。

                      (1)将所有训练集单词生成一个集合

         (2)看测试集中的单词是否在训练集中出现过,并且创建向量

       2)准备工作完成后,下面主要就是计算P(特征|类别)*P(类别)。这里P(类别)其实很好计算,就两类:是侮辱性留言文档,不是,根据标签那一列计算就好。P(特征1|类别)*P(特征2|类别)*...*P(特征n|类别)

    的计算这里要考虑一下实际问题,第一:如果有一个因子为0,那乘积就是0了,所以这里所有词出现数初始话为1,而不是0;第二就是下溢出问题,即太多很小的数相乘因为计算机精度,会显示为0。用公式ln(a*b)=ln(a)+ln(b)改进一下。

       3)分别根据测试数据集属于哪一类的概率,返回概率大的类别

    对应代码:

     1 def loadDataSet():
     2     """
     3     创建数据集
     4     :return: 单词列表postingList, 所属类别classVec
     5     """
     6     postingList = [['my', 'dog', 'has', 'flea', 'problems', 'help', 'please'], #[0,0,1,1,1......]
     7                    ['maybe', 'not', 'take', 'him', 'to', 'dog', 'park', 'stupid'],
     8                    ['my', 'dalmation', 'is', 'so', 'cute', 'I', 'love', 'him'],
     9                    ['stop', 'posting', 'stupid', 'worthless', 'garbage'],
    10                    ['mr', 'licks', 'ate', 'my', 'steak', 'how', 'to', 'stop', 'him'],
    11                    ['quit', 'buying', 'worthless', 'dog', 'food', 'stupid']]
    12     classVec = [0, 1, 0, 1, 0, 1]  # 1 is abusive, 0 not
    13     return postingList, classVec

    步骤1)中的1):

     1 def createVocabList(dataSet):
     2     """
     3     获取所有单词的集合
     4     :param dataSet: 数据集
     5     :return: 所有单词的集合(即不含重复元素的单词列表)
     6     """
     7     vocabSet = set([])  # create empty set
     8     for document in dataSet:
     9         # 操作符 | 用于求两个集合的并集
    10         vocabSet = vocabSet | set(document)  # union of the two sets
    11     return list(vocabSet)

    步骤1)中的2):

     1 def setOfWords2Vec(vocabList, inputSet):
     2     """
     3     遍历查看该单词是否出现,出现该单词则将该单词置1
     4     :param vocabList: 所有单词集合列表
     5     :param inputSet: 输入数据集
     6     :return: 匹配列表[0,1,0,1...],其中 1与0 表示词汇表中的单词是否出现在输入的数据集中
     7     """
     8     # 创建一个和词汇表等长的向量,并将其元素都设置为0
     9     returnVec = [0] * len(vocabList)# [0,0......]
    10     # 遍历文档中的所有单词,如果出现了词汇表中的单词,则将输出的文档向量中的对应值设为1
    11     for word in inputSet:
    12         if word in vocabList:
    13             returnVec[vocabList.index(word)] = 1
    14         else:
    15             print("the word: %s is not in my Vocabulary!" % word)
    16     return returnVec

    步骤1)的调试:

    data,lab = loadDataSet()
    data_set = createVocabList(data)
    print(data_set)
    print(setOfWords2Vec(data_set, ['dog']))
    结果:
    ['so', 'stupid', 'maybe', 'stop', 'problems', 'park', 'has', 'cute', 'ate', 'licks', 'worthless', 'not', 'take', 'love', 'is', 'him', 'flea', 'steak', 'dog', 'food', 'help', 'how', 'please', 'my', 'posting', 'I', 'buying', 'garbage', 'mr', 'to', 'quit', 'dalmation']
    [0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0]

    步骤2)与3):

    def trainNB0(trainMatrix, trainCategory):
        """
        训练数据优化版本
        :param trainMatrix: 训练文件单词矩阵
        :param trainCategory: 训练文件对应的类别
        :return:
        """
        # 总文件数
        numTrainDocs = len(trainMatrix)
        # 总单词数
        numWords = len(trainMatrix[0])
        # 侮辱性文件的出现概率,也就是算P(类别)
        pAbusive = sum(trainCategory) / float(numTrainDocs)
        # 构造单词出现次数列表
        # p0Num 正常的统计
        # p1Num 侮辱的统计
        # 避免单词列表中的任何一个单词为0,而导致最后的乘积为0,所以将每个单词的出现次数初始化为 1
        p0Num = ones(numWords)#[0,0......]->[1,1,1,1,1.....]
        p1Num = ones(numWords)
    
        # 整个数据集单词出现总数,2.0根据样本/实际调查结果调整分母的值(2主要是避免分母为0,当然值可以调整)
        # p0Denom 正常的统计
        # p1Denom 侮辱的统计
        p0Denom = 2.0
        p1Denom = 2.0
        for i in range(numTrainDocs):
            if trainCategory[i] == 1:
                # 累加辱骂词的频次
                p1Num += trainMatrix[i]
                # 对每篇文章的辱骂的频次 进行统计汇总
                p1Denom += sum(trainMatrix[i])
            else:
                p0Num += trainMatrix[i]
                p0Denom += sum(trainMatrix[i])
        # 类别1,即侮辱性文档的[log(P(F1|C1)),log(P(F2|C1)),log(P(F3|C1)),log(P(F4|C1)),log(P(F5|C1))....]列表
        p1Vect = log(p1Num / p1Denom)
        # 类别0,即正常文档的[log(P(F1|C0)),log(P(F2|C0)),log(P(F3|C0)),log(P(F4|C0)),log(P(F5|C0))....]列表
        p0Vect = log(p0Num / p0Denom)
        return p0Vect, p1Vect, pAbusive
    
    
    def classifyNB(vec2Classify, p0Vec, p1Vec, pClass1):
        """
        使用算法:
            # 将乘法转换为加法
            乘法:P(C|F1F2...Fn) = P(F1F2...Fn|C)P(C)/P(F1F2...Fn)
            加法:P(F1|C)*P(F2|C)....P(Fn|C)P(C) -> log(P(F1|C))+log(P(F2|C))+....+log(P(Fn|C))+log(P(C))
        :param vec2Classify: 待测数据[0,1,1,1,1...],即要分类的向量
        :param p0Vec: 类别0,即正常文档的[log(P(F1|C0)),log(P(F2|C0)),log(P(F3|C0)),log(P(F4|C0)),log(P(F5|C0))....]列表
        :param p1Vec: 类别1,即侮辱性文档的[log(P(F1|C1)),log(P(F2|C1)),log(P(F3|C1)),log(P(F4|C1)),log(P(F5|C1))....]列表
        :param pClass1: 类别1,侮辱性文件的出现概率
        :return: 类别1 or 0
        """
        # 计算公式  log(P(F1|C))+log(P(F2|C))+....+log(P(Fn|C))+log(P(C))
        # 使用 NumPy 数组来计算两个向量相乘的结果,这里的相乘是指对应元素相乘,即先将两个向量中的第一个元素相乘,然后将第2个元素相乘,以此类推。
        # 我的理解是:这里的 vec2Classify * p1Vec 的意思就是将每个词与其对应的概率相关联起来
        # 可以理解为 1.单词在词汇表中的条件下,文件是good 类别的概率 也可以理解为 2.在整个空间下,文件既在词汇表中又是good类别的概率
        p1 = sum(vec2Classify * p1Vec) + log(pClass1)         #加是因为为前面sum()中的元素也是LOG
        p0 = sum(vec2Classify * p0Vec) + log(1.0 - pClass1)
        if p1 > p0:
            return 1
        else:
            return 0

    主函数:

     1 def testingNB():
     2     """
     3     测试朴素贝叶斯算法
     4     """
     5     # 1. 加载数据集
     6     listOPosts, listClasses = loadDataSet()
     7     # 2. 创建单词集合
     8     myVocabList = createVocabList(listOPosts)
     9     # 3. 计算单词是否出现并创建数据矩阵
    10     trainMat = []
    11     for postinDoc in listOPosts:
    12         # 返回m*len(myVocabList)的矩阵, 记录的都是0,1信息
    13         trainMat.append(setOfWords2Vec(myVocabList, postinDoc))
    14     # 4. 训练数据
    15     p0V, p1V, pAb = trainNB0(array(trainMat), array(listClasses))
    16     # 5. 测试数据
    17     testEntry = ['love', 'my', 'dalmation']
    18     thisDoc = array(setOfWords2Vec(myVocabList, testEntry))
    19     print(testEntry, 'classified as: ', classifyNB(thisDoc, p0V, p1V, pAb))
    20     testEntry = ['stupid', 'garbage']
    21     thisDoc = array(setOfWords2Vec(myVocabList, testEntry))
    22     print(testEntry, 'classified as: ', classifyNB(thisDoc, p0V, p1V, pAb))

    详细的的看这里

    以上等于是自己写的贝叶斯模块,sklearn中也有贝叶斯模块:看这里

  • 相关阅读:
    java虚拟机之垃圾回收机制
    java虚拟机之JVM体系结构
    java虚拟机之JVM生命周期
    删除链表中重复的结点
    (二十一)java多线程之Executors
    (十八)java多线程之Callable Future
    (十六)java多线程之优先队列PriorityBlockingQueue
    (十九)java多线程之ForkJoinPool
    (二十)java多线程之ScheduledThreadPoolExecutor
    (六)java多线程之ReadWriteLock
  • 原文地址:https://www.cnblogs.com/maxiaonong/p/10006208.html
Copyright © 2011-2022 走看看