zoukankan      html  css  js  c++  java
  • 11.分类与监督学习,朴素贝叶斯分类算法

    简述分类与聚类的联系与区别。

    简述什么是监督学习与无监督学习。

    分类与聚类:分类是已经知道类别,具体的类别是哪一些,通过对已知的的数据进行训练,找到不同类的特征。

          聚类是不知道会分成多少类,通过聚类分析将数据或者说用户聚合成几个群体,他不需要对数据进行训练和学习。

    有监督学习:对具有标记的训练样本进行学习,以尽可能对训练样本集外的数据进行分类预测。(分类)

    无监督学习:对未标记的样本进行训练学习(聚类)

    常见的分类比如决策树分类算法、贝叶斯分类算法等聚类的算法最基本的有系统聚类,K-means均值聚类

    2.朴素贝叶斯分类算法 实例

    利用关于心脏病患者的临床历史数据集,建立朴素贝叶斯心脏病分类模型。

    有六个分类变量(分类因子):性别,年龄、KILLP评分、饮酒、吸烟、住院天数

    目标分类变量疾病:

    –心梗

    –不稳定性心绞痛

    新的实例:–(性别=‘男’,年龄<70, KILLP=‘I',饮酒=‘是’,吸烟≈‘是”,住院天数<7)

    最可能是哪个疾病?

    上传手工演算过程。

    性别

    年龄

    KILLP

    饮酒

    吸烟

    住院天数

    疾病

    1

    >80

    1

    7-14

    心梗

    2

    70-80

    2

    <7

    心梗

    3

    70-81

    1

    <7

    不稳定性心绞痛

    4

    <70

    1

    >14

    心梗

    5

    70-80

    2

    7-14

    心梗

    6

    >80

    2

    7-14

    心梗

    7

    70-80

    1

    7-14

    心梗

    8

    70-80

    2

    7-14

    心梗

    9

    70-80

    1

    <7

    心梗

    10

    <70

    1

    7-14

    心梗

    11

    >80

    3

    <7

    心梗

    12

    70-80

    1

    7-14

    心梗

    13

    >80

    3

    7-14

    不稳定性心绞痛

    14

    70-80

    3

    >14

    不稳定性心绞痛

    15

    <70

    3

    <7

    心梗

    16

    70-80

    1

    >14

    心梗

    17

    <70

    1

    7-14

    心梗

    18

    70-80

    1

    >14

    心梗

    19

    70-80

    2

    7-14

    心梗

    20

    <70

    3

    <7

    不稳定性心绞痛

    设X{x1,x2,x3,x4,x5,x6}为影响疾病的因素

    Y{y1,y2}为疾病类型,y1为心梗、y2为不稳定性心绞痛

    则P(y1)=16/20,P(y2)=4/20,P(X)=1

    P(y1|X)=P(X|y1)P(y1)/P(X)=P(x1|y1)P(x2|y1)P(x3|y1)P(x4|y1)P(x5|y1)P(x6|y1)P(y1)/P(X)=7/16*4/16*9/16*3/16*7/16*4/16*16/20/1=0.1009%

    P(y2|X)=P(X|y2)P(y2)/P(X)=P(x1|y2)P(x2|y2)P(x3|y2)P(x4|y2)P(x5|y2)P(x6|y2)P(y2)/P(X)=1/4*1/4*1/4*1/4*2/4*2/4*4/20/1=0.0195%

    最可能是心梗

    3.使用朴素贝叶斯模型对iris数据集进行花分类。

    尝试使用3种不同类型的朴素贝叶斯:

    • 高斯分布型
    • 多项式型
    • 伯努利型

    并使用sklearn.model_selection.cross_val_score(),对各模型进行交叉验证。

    from sklearn import datasets
    iris = datasets.load_iris()
    (1)
    from sklearn.naive_bayes import GaussianNB
    gnb = GaussianNB()  #建立模型
    pred=gnb.fit(iris.data,iris.target) #模型训练
    y_pred=pred.predict(iris.data) #分类预测
    print(iris.data.shape[0],(iris.target !=y_pred).sum())

    (2)

    from sklearn.naive_bayes import BernoulliNB
    gnb = BernoulliNB()  #建立模型
    gnb.fit(iris.data,iris.target) #模型训练
    y_pred=gnb.predict(iris.data) #分类预测
    print(iris.data.shape[0],(iris.target !=y_pred).sum())

    (3)

    from sklearn.naive_bayes import MultinomialNB

    gnb = MultinomialNB()  #建立模型
    pred=gnb.fit(iris.data,iris.target) #模型训练
    y_pred=pred.predict(iris.data) #分类预测
    print(iris.data.shape[0],(iris.target !=y_pred).sum())
    课程作业
  • 相关阅读:
    二维几何前置知识
    点分治学习笔记
    $fhq-treap$学习笔记
    对拍使用方法
    2021.2.18-2021.5.18 三个月后端开发实习的学习路径
    蓝桥杯常考算法 + 知识点
    Linux
    Linux
    Intern Day112
    Linux上编译运行C/C++程序
  • 原文地址:https://www.cnblogs.com/lingcode/p/12884760.html
Copyright © 2011-2022 走看看