zoukankan      html  css  js  c++  java
  • 机器学习10贝叶斯

    1.理解分类与监督学习、聚类与无监督学习。

    简述分类与聚类的联系与区别。

    联系:分类与聚类都是在数据集中寻找离自己最近的点

    区别:分类是一种有监督学习,目的是为了确定点的类别,而类别是已知的;聚类是一种无监督学习,目的是将点分为成若干个类,事先是没有类别的。

    简述什么是监督学习与无监督学习。

     监督学习:在监督学习中的数据是带有标签的,知道输入和输出结果之间的关系,通过训练得到一个最优的模型

    无监督学习:在无监督学习中数据是没有标签·的,不清楚数据、特征之间的关系,比起监督学习,无监督学习更像是让机器学会自己做事,自学

    2.朴素贝叶斯分类算法 实例

    利用关于心脏病患者的临床历史数据集,建立朴素贝叶斯心脏病分类模型。

    有六个分类变量(分类因子):性别,年龄、KILLP评分、饮酒、吸烟、住院天数

    目标分类变量疾病:

    –心梗

    –不稳定性心绞痛

    新的实例:–(性别=‘男’,年龄<70, KILLP=‘I',饮酒=‘是’,吸烟≈‘是”,住院天数<7)

    最可能是哪个疾病?

    上传手工演算过程。

    性别

    年龄

    KILLP

    饮酒

    吸烟

    住院天数

    疾病

    1

    >80

    1

    7-14

    心梗

    2

    70-80

    2

    <7

    心梗

    3

    70-81

    1

    <7

    不稳定性心绞痛

    4

    <70

    1

    >14

    心梗

    5

    70-80

    2

    7-14

    心梗

    6

    >80

    2

    7-14

    心梗

    7

    70-80

    1

    7-14

    心梗

    8

    70-80

    2

    7-14

    心梗

    9

    70-80

    1

    <7

    心梗

    10

    <70

    1

    7-14

    心梗

    11

    >80

    3

    <7

    心梗

    12

    70-80

    1

    7-14

    心梗

    13

    >80

    3

    7-14

    不稳定性心绞痛

    14

    70-80

    3

    >14

    不稳定性心绞痛

    15

    <70

    3

    <7

    心梗

    16

    70-80

    1

    >14

    心梗

    17

    <70

    1

    7-14

    心梗

    18

    70-80

    1

    >14

    心梗

    19

    70-80

    2

    7-14

    心梗

    20

    <70

    3

    <7

    不稳定性心绞痛

    设置发生心梗的概率为X
    设置发生不稳定性心绞痛为Y
    设置发生(性别=‘男’,年龄<70, KILLP=‘I',饮酒=‘是’,吸烟≈‘是”,住院天数<7)的为Z
    
    P(X)=16/20
    P(男|X)=7/16
    P(年龄<70|X)= 1/4
    P(KILLP=I|X)= 9/16
    P(饮酒|X)= 3/16
    P(吸烟|X)= 7/16
    P(住院天数<7|X)= 1/4
    
    P(Y)=4/20
    P(男|Y)=1/4
    P(年龄<70|Y)= 1/4
    P(KILLP=I|Y)= 1/4
    P(饮酒|Y)= 1/4
    P(吸烟|Y)= 1/2
    P(住院天数<7|Y)= 1/2
    
    P(Z)=8/20 * 5/20 * 10/20 * 4/20 * 9/20 * 6/20=54/40000
    
    根据贝叶斯公式
    P(X|Z)=P(Z|X)P(X)/P(Z)
    =((7/16 * 4/16 * 9/16 * 3/16 * 7/16 * 4/16) * 16/20) / (54/40000) 
    ≈75%
    
    同理
    P(Y|Z)=P(Z|Y)P(Y)/P(Z)
    =((1/4 * 1/4 * 1/4 * 1/4 * 1/2 * 1/2) *4/20)/ (54/40000) 
    ≈15%
    
    P(X|Z)>P(Y|Z)
    故应该为心梗
    

      

    3.使用朴素贝叶斯模型对iris数据集进行花分类。

    尝试使用3种不同类型的朴素贝叶斯:

    • 高斯分布型
    • 多项式型
    • 伯努利型

    并使用sklearn.model_selection.cross_val_score(),对各模型进行交叉验证

    from sklearn.datasets import load_iris
    from sklearn.model_selection import train_test_split,cross_val_score
    from sklearn.naive_bayes import GaussianNB,MultinomialNB,BernoulliNB
    from sklearn import metrics
    
    #数据处理
    data=load_iris()
    x = data['data']
    y = data['target']
    x_train, x_test, y_train, y_test = train_test_split(x, y, test_size=0.3,random_state=5)
    
    #高斯分布型
    gnb=GaussianNB()
    gnb.fit(x_train,y_train)
    print("----------------高斯分布型------------------")
    print('准确率指标:',metrics.accuracy_score(y_test,gnb.predict(x_test)))
    print('交叉验证后:',cross_val_score(gnb,x_test,y_test,cv=10).mean())
    
    print("----------------多项式型------------------")
    mnb=MultinomialNB()
    mnb.fit(x_train,y_train)
    print('准确率指标:',metrics.accuracy_score(y_test,mnb.predict(x_test)))
    print('交叉验证后:',cross_val_score(mnb,x_test,y_test,cv=10).mean())
    
    print("----------------伯努利型------------------")
    bnb=BernoulliNB()
    bnb.fit(x_train,y_train)
    print('准确率指标:',metrics.accuracy_score(y_test,bnb.predict(x_test)))
    print('交叉验证后:',cross_val_score(bnb,x_test,y_test,cv=10).mean())

  • 相关阅读:
    使用SMM框架开发企业级应用-----注解
    使用SMM框架开发企业级应用-----顾问(Advisor)与 正则表达式做顾问
    使用SMM框架开发企业级应用-----AOP进阶
    使用SMM框架开发企业级应用-----代理(静态,JDK,CGLIB)
    使用SMM框架开发企业级应用-----Spring集合注入和域属性自动注入byName和byType
    使用SMM框架开发企业级应用-----面试题
    使用SMM框架开发企业级应用-----Spring AOP
    swagger-ui 3.0.0版本介绍
    vite 创建ts项目
    vue3
  • 原文地址:https://www.cnblogs.com/renshenbenzuig/p/12876857.html
Copyright © 2011-2022 走看看