zoukankan      html  css  js  c++  java
  • 机器学习 | 算法笔记- 朴素贝叶斯(Naive Bayesian)

    前言

    本系列为机器学习算法的总结和归纳,目的为了清晰阐述算法原理,同时附带上手代码实例,便于理解。

    目录

      决策树
      组合算法(Ensemble Method)
      K-Means
      机器学习算法总结
     
    本章为朴素贝叶斯,内容包括模型介绍及代码实现(包括自主实现和sklearn案例)。

    一、算法简介

    1.1 背景

    监督学习分为生成模型 (generative model) 与判别模型 (discriminative model),贝叶斯方法是生贝叶斯方法正是生成模型的代表 (还有隐马尔科夫模型)。
    在概率论与统计学中,贝叶斯定理 (Bayes' theorem) 表达了一个事件发生的概率,而确定这一概率的方法是基于与该事件相关的条件先验知识 (prior knowledge)。而利用相应先验知识进行概率推断的过程为贝叶斯推断 (Bayesian inference)。

    1.2 贝叶斯定理

    条件概率 (conditional probability) 是指在事件 B 发生的情况下,事件 A 发生的概率。通常记为 P(A | B)。
    因此
    可得
    由此可以推出贝叶斯公式
    这也是条件概率的计算公式。
    此外,由全概率公式,可得条件概率的另一种写法
    其中样本空间由A和A'构成,由此求得事件B的概率。

    1.3 贝叶斯推断

    贝叶斯公式中,P(A)称为"先验概率"(Prior probability),即在B事件发生之前,对A事件概率的一个判断。
    P(A|B)称为"后验概率"(Posterior probability),即在B事件发生之后,对A事件概率的重新评估。
    P(B|A)/P(B)称为"可能性函数"(Likelyhood),这是一个调整因子,使得预估概率更接近真实概率。
    所以,条件概率可以理解成下面的式子:后验概率=先验概率 x 调整因子
    这就是贝叶斯推断的含义。我们先预估一个"先验概率",然后加入实验结果,看这个实验到底是增强还是削弱了"先验概率",由此得到更接近事实的"后验概率"。因为在分类中,只需要找出可能性最大的那个选项,而不需要知道具体那个类别的概率是多少,所以为了减少计算量,全概率公式在实际编程中可以不使用。
     
    而朴素贝叶斯推断,是在贝叶斯推断的基础上,对条件概率分布做了条件独立性的假设。因此可得朴素贝叶斯分类器的表达式。因为以自变量之间的独立(条件特征独立)性和连续变量的正态性假设为前提,就会导致算法精度在某种程度上受影响。

    1.4 朴素贝叶斯的参数推断

    实际在机器学习的分类问题的应用中,朴素贝叶斯分类器的训练过程就是基于训练集 D 来估计类先验概率 P(c) ,并为每个属性估计条件概率 P(xi | c) 。这里就需要使用极大似然估计 (maximum likelihood estimation, 简称 MLE) 来估计相应的概率。
     
    令 Dc 表示训练集 D 中的第 c 类样本组成的集合,若有充足的独立同分布样本,则可容易地估计出类别的先验概率:
    对于离散属性而言,令 Dc,xi 表示 Dc 中在第 i 个属性上取值为 xi 的样本组成的集合,则条件概率 P(xi | c) 可估计为:
    对于连续属性可考虑概率密度函数,假定
    μ和sigma分别是第 c 类样本在第 i 个属性上取值的均值和方差,则有:

    1.5 算法流程 

     实际应用方式:
    - 若任务对预测速度要求较高,则对给定的训练集,可将朴素贝叶斯分类器涉及的所有概率估值事先计算好存储起来,这样在进行预测时只需要 “查表” 即可进行判别;
    - 若任务数据更替频繁,则可采用 “懒惰学习” (lazy learning) 方式,先不进行任何训练,待收到预测请求时再根据当前数据集进行概率估值;
    - 若数据不断增加,则可在现有估值的基础上,仅对新增样本的属性值所涉及的概率估值进行计数修正即可实现增量学习。

    二、代码案例

     2.1 留言分类(参考机器学习实战)

    # -*- coding: UTF-8 -*-
    import numpy as np
    from functools import reduce
    
    """
    函数说明:创建实验样本
    
    Parameters:
        无
    Returns:
        postingList - 实验样本切分的词条
        classVec - 类别标签向量
    
    """
    def loadDataSet():
        postingList=[['my', 'dog', 'has', 'flea', 'problems', 'help', 'please'],                #切分的词条
                    ['maybe', 'not', 'take', 'him', 'to', 'dog', 'park', 'stupid'],
                    ['my', 'dalmation', 'is', 'so', 'cute', 'I', 'love', 'him'],
                    ['stop', 'posting', 'stupid', 'worthless', 'garbage'],
                    ['mr', 'licks', 'ate', 'my', 'steak', 'how', 'to', 'stop', 'him'],
                    ['quit', 'buying', 'worthless', 'dog', 'food', 'stupid']]
        classVec = [0,1,0,1,0,1]                                                                   #类别标签向量,1代表侮辱性词汇,0代表不是
        return postingList,classVec                                                                #返回实验样本切分的词条和类别标签向量
    
    """
    函数说明:将切分的实验样本词条整理成不重复的词条列表,也就是词汇表
    
    Parameters:
        dataSet - 整理的样本数据集
    Returns:
        vocabSet - 返回不重复的词条列表,也就是词汇表
    
    """
    def createVocabList(dataSet):
        vocabSet = set([])                      #创建一个空的不重复列表
        for document in dataSet:                
            vocabSet = vocabSet | set(document) #取并集
        return list(vocabSet)
    
    """
    函数说明:根据vocabList词汇表,将inputSet向量化,向量的每个元素为1或0
    
    Parameters:
        vocabList - createVocabList返回的列表
        inputSet - 切分的词条列表
    Returns:
        returnVec - 文档向量,词集模型
    
    """
    def setOfWords2Vec(vocabList, inputSet):
        returnVec = [0] * len(vocabList)                                    #创建一个其中所含元素都为0的向量
        for word in inputSet:                                                #遍历每个词条
            if word in vocabList:                                            #如果词条存在于词汇表中,则置1
                returnVec[vocabList.index(word)] = 1
            else: print("the word: %s is not in my Vocabulary!" % word)
        return returnVec                                                    #返回文档向量
    
    
    """
    函数说明:朴素贝叶斯分类器训练函数
    
    Parameters:
        trainMatrix - 训练文档矩阵,即setOfWords2Vec返回的returnVec构成的矩阵
        trainCategory - 训练类别标签向量,即loadDataSet返回的classVec
    Returns:
        p0Vect - 非侮辱类的条件概率数组
        p1Vect - 侮辱类的条件概率数组
        pAbusive - 文档属于侮辱类的概率
    
    """
    def trainNB0(trainMatrix,trainCategory):
        numTrainDocs = len(trainMatrix)                            #计算训练的文档数目
        numWords = len(trainMatrix[0])                            #计算每篇文档的词条数
        pAbusive = sum(trainCategory)/float(numTrainDocs)        #文档属于侮辱类的概率
        p0Num = np.zeros(numWords); p1Num = np.zeros(numWords)    #创建numpy.zeros数组,
        p0Denom = 0.0; p1Denom = 0.0                            #分母初始化为0.0
        for i in range(numTrainDocs):
            if trainCategory[i] == 1:                            #统计属于侮辱类的条件概率所需的数据,即P(w0|1),P(w1|1),P(w2|1)···
                p1Num += trainMatrix[i]
                p1Denom += sum(trainMatrix[i])
            else:                                                #统计属于非侮辱类的条件概率所需的数据,即P(w0|0),P(w1|0),P(w2|0)···
                p0Num += trainMatrix[i]
                p0Denom += sum(trainMatrix[i])
        p1Vect = p1Num/p1Denom                                    #相除        
        p0Vect = p0Num/p0Denom          
        return p0Vect,p1Vect,pAbusive                            #返回属于侮辱类的条件概率数组,属于非侮辱类的条件概率数组,文档属于侮辱类的概率
    
    """
    函数说明:朴素贝叶斯分类器分类函数
    
    Parameters:
        vec2Classify - 待分类的词条数组
        p0Vec - 侮辱类的条件概率数组
        p1Vec -非侮辱类的条件概率数组
        pClass1 - 文档属于侮辱类的概率
    Returns:
        0 - 属于非侮辱类
        1 - 属于侮辱类
    
    """
    def classifyNB(vec2Classify, p0Vec, p1Vec, pClass1):
        p1 = reduce(lambda x,y:x*y, vec2Classify * p1Vec) * pClass1                #对应元素相乘
        p0 = reduce(lambda x,y:x*y, vec2Classify * p0Vec) * (1.0 - pClass1)
        print('p0:',p0)
        print('p1:',p1)
        if p1 > p0:
            return 1
        else: 
            return 0
    
    """
    函数说明:测试朴素贝叶斯分类器
    
    Parameters:
        无
    Returns:
        无
    
    """
    def testingNB():
        listOPosts,listClasses = loadDataSet()                                    #创建实验样本
        myVocabList = createVocabList(listOPosts)                                #创建词汇表
        trainMat=[]
        for postinDoc in listOPosts:
            trainMat.append(setOfWords2Vec(myVocabList, postinDoc))                #将实验样本向量化
        p0V,p1V,pAb = trainNB0(np.array(trainMat),np.array(listClasses))        #训练朴素贝叶斯分类器
        testEntry = ['love', 'my', 'dalmation']                                    #测试样本1
        thisDoc = np.array(setOfWords2Vec(myVocabList, testEntry))                #测试样本向量化
        if classifyNB(thisDoc,p0V,p1V,pAb):
            print(testEntry,'属于侮辱类')                                        #执行分类并打印分类结果
        else:
            print(testEntry,'属于非侮辱类')                                        #执行分类并打印分类结果
        testEntry = ['stupid', 'garbage']                                        #测试样本2
    
        thisDoc = np.array(setOfWords2Vec(myVocabList, testEntry))                #测试样本向量化
        if classifyNB(thisDoc,p0V,p1V,pAb):
            print(testEntry,'属于侮辱类')                                        #执行分类并打印分类结果
        else:
            print(testEntry,'属于非侮辱类')                                        #执行分类并打印分类结果
    
    if __name__ == '__main__':
        testingNB()
    
        
    View Code

    2.2 sklearn实现

    scikit-learn中朴素贝叶斯类库的使用也比较简单。相对于决策树,KNN之类的算法,朴素贝叶斯需要关注的参数是比较少的。

    在scikit-learn中,一共有3个朴素贝叶斯的分类算法类。分别是GaussianNB,MultinomialNB和BernoulliNB。其中GaussianNB就是先验为高斯分布的朴素贝叶斯,MultinomialNB就是先验为多项式分布的朴素贝叶斯,而BernoulliNB就是先验为伯努利分布的朴素贝叶斯。

    MultinamialNB这个函数,只有3个参数:alpha(拉普拉斯平滑),fit_prior(表示是否要考虑先验概率),和class_prior:可选参数
    MultinomialNB一个重要的功能是有partial_fit方法,这个方法的一般用在如果训练集数据量非常大,一次不能全部载入内存的时候。这时我们可以把训练集分成若干等分,重复调用partial_fit来一步步的学习训练集,非常方便。
     
    # -*- coding: UTF-8 -*-
    from sklearn.naive_bayes import MultinomialNB
    import matplotlib.pyplot as plt
    import os
    import random
    import jieba
    
    """
    函数说明:中文文本处理
    
    Parameters:
        folder_path - 文本存放的路径
        test_size - 测试集占比,默认占所有数据集的百分之20
    Returns:
        all_words_list - 按词频降序排序的训练集列表
        train_data_list - 训练集列表
        test_data_list - 测试集列表
        train_class_list - 训练集标签列表
        test_class_list - 测试集标签列表
    
    """
    def TextProcessing(folder_path, test_size = 0.2):
        folder_list = os.listdir(folder_path)                        #查看folder_path下的文件
        data_list = []                                                #数据集数据
        class_list = []                                                #数据集类别
    
        #遍历每个子文件夹
        for folder in folder_list:
            new_folder_path = os.path.join(folder_path, folder)        #根据子文件夹,生成新的路径
            files = os.listdir(new_folder_path)                        #存放子文件夹下的txt文件的列表
            
            j = 1
            #遍历每个txt文件
            for file in files:
                if j > 100:                                            #每类txt样本数最多100个
                    break
                with open(os.path.join(new_folder_path, file), 'r', encoding = 'utf-8') as f:    #打开txt文件
                    raw = f.read()
                
                word_cut = jieba.cut(raw, cut_all = False)            #精简模式,返回一个可迭代的generator
                word_list = list(word_cut)                            #generator转换为list
                
                data_list.append(word_list)                            #添加数据集数据
                class_list.append(folder)                            #添加数据集类别
                j += 1
    
        data_class_list = list(zip(data_list, class_list))            #zip压缩合并,将数据与标签对应压缩
        random.shuffle(data_class_list)                                #将data_class_list乱序
        index = int(len(data_class_list) * test_size) + 1            #训练集和测试集切分的索引值
        train_list = data_class_list[index:]                        #训练集
        test_list = data_class_list[:index]                            #测试集
        train_data_list, train_class_list = zip(*train_list)        #训练集解压缩
        test_data_list, test_class_list = zip(*test_list)            #测试集解压缩
    
        all_words_dict = {}                                            #统计训练集词频
        for word_list in train_data_list:
            for word in word_list:
                if word in all_words_dict.keys():
                    all_words_dict[word] += 1
                else:
                    all_words_dict[word] = 1
        
        #根据键的值倒序排序
        all_words_tuple_list = sorted(all_words_dict.items(), key = lambda f:f[1], reverse = True)
        all_words_list, all_words_nums = zip(*all_words_tuple_list)    #解压缩
        all_words_list = list(all_words_list)                        #转换成列表
        return all_words_list, train_data_list, test_data_list, train_class_list, test_class_list
    
    """
    函数说明:读取文件里的内容,并去重
    
    Parameters:
        words_file - 文件路径
    Returns:
        words_set - 读取的内容的set集合
    
    """
    def MakeWordsSet(words_file):
        words_set = set()                                            #创建set集合
        with open(words_file, 'r', encoding = 'utf-8') as f:        #打开文件
            for line in f.readlines():                                #一行一行读取
                word = line.strip()                                    #去回车
                if len(word) > 0:                                    #有文本,则添加到words_set中
                    words_set.add(word)                                
        return words_set                                             #返回处理结果
    
    """
    函数说明:根据feature_words将文本向量化
    
    Parameters:
        train_data_list - 训练集
        test_data_list - 测试集
        feature_words - 特征集
    Returns:
        train_feature_list - 训练集向量化列表
        test_feature_list - 测试集向量化列表
    
    """
    def TextFeatures(train_data_list, test_data_list, feature_words):
        def text_features(text, feature_words):                        #出现在特征集中,则置1                                                
            text_words = set(text)
            features = [1 if word in text_words else 0 for word in feature_words]
            return features
        train_feature_list = [text_features(text, feature_words) for text in train_data_list]
        test_feature_list = [text_features(text, feature_words) for text in test_data_list]
        return train_feature_list, test_feature_list                #返回结果
    
    
    """
    函数说明:文本特征选取
    
    Parameters:
        all_words_list - 训练集所有文本列表
        deleteN - 删除词频最高的deleteN个词
        stopwords_set - 指定的结束语
    Returns:
        feature_words - 特征集
    
    """
    def words_dict(all_words_list, deleteN, stopwords_set = set()):
        feature_words = []                            #特征列表
        n = 1
        for t in range(deleteN, len(all_words_list), 1):
            if n > 1000:                            #feature_words的维度为1000
                break                                
            #如果这个词不是数字,并且不是指定的结束语,并且单词长度大于1小于5,那么这个词就可以作为特征词
            if not all_words_list[t].isdigit() and all_words_list[t] not in stopwords_set and 1 < len(all_words_list[t]) < 5:
                feature_words.append(all_words_list[t])
            n += 1
        return feature_words
    
    """
    函数说明:新闻分类器
    
    Parameters:
        train_feature_list - 训练集向量化的特征文本
        test_feature_list - 测试集向量化的特征文本
        train_class_list - 训练集分类标签
        test_class_list - 测试集分类标签
    Returns:
        test_accuracy - 分类器精度
    
    """
    def TextClassifier(train_feature_list, test_feature_list, train_class_list, test_class_list):
        classifier = MultinomialNB().fit(train_feature_list, train_class_list)
        test_accuracy = classifier.score(test_feature_list, test_class_list)
        return test_accuracy
    
    if __name__ == '__main__':
        #文本预处理
        folder_path = './SogouC/Sample'                #训练集存放地址
        all_words_list, train_data_list, test_data_list, train_class_list, test_class_list = TextProcessing(folder_path, test_size=0.2)
    
        # 生成stopwords_set
        stopwords_file = './stopwords_cn.txt'
        stopwords_set = MakeWordsSet(stopwords_file)
    
    
        test_accuracy_list = []
        deleteNs = range(0, 1000, 20)                #0 20 40 60 ... 980
        for deleteN in deleteNs:
            feature_words = words_dict(all_words_list, deleteN, stopwords_set)
            train_feature_list, test_feature_list = TextFeatures(train_data_list, test_data_list, feature_words)
            test_accuracy = TextClassifier(train_feature_list, test_feature_list, train_class_list, test_class_list)
            test_accuracy_list.append(test_accuracy)
    
        # ave = lambda c: sum(c) / len(c)
        # print(ave(test_accuracy_list))
    
        plt.figure()
        plt.plot(deleteNs, test_accuracy_list)
        plt.title('Relationship of deleteNs and test_accuracy')
        plt.xlabel('deleteNs')
        plt.ylabel('test_accuracy')
        plt.show()
    View Code

     

  • 相关阅读:
    Winform Timer用法,Invoke在Timer的事件中更新控件状态
    日期字符串格式转换
    Windows服务的创建、安装、卸载
    Oracle更新表字段时内容中含有特殊字符&的解决方法
    MVC无刷新查询,PagedList分页控件使用,导出Excel
    网页抓取解析,使用JQuery选择器进行网页解析
    asp.net webform 自定义分页控件
    if __name__ == "__main__": tf.app.run()
    Python 虚拟机
    paper reading----Xception: Deep Learning with Depthwise Separable Convolutions
  • 原文地址:https://www.cnblogs.com/geo-will/p/10468401.html
Copyright © 2011-2022 走看看