1.理解分类与监督学习、聚类与无监督学习。
简述分类与聚类的联系与区别。
分类是事先定义好类别 ,类别数不变 。分类器需要由人工标注的分类训练语料训练得到,属于有指导学习范畴。聚类则没有事先预定的类别,类别数不确定。 聚类不需要人工标注和预先训练分类器,类别在聚类过程中自动生成 。
简述什么是监督学习与无监督学习。
监督学习:通过已有的训练样本去训练得到一个最优模型,再利用这个模型将所有的输入映射为相应的输出,对输出进行简单的判断从而实现分类的目的,也就具有了对未知数据进行分类的能力。
无监督学习:我们事先没有任何训练样本,而需要直接对数据进行建模。
2.朴素贝叶斯分类算法 实例
利用关于心脏病患者的临床历史数据集,建立朴素贝叶斯心脏病分类模型。
有六个分类变量(分类因子):性别,年龄、KILLP评分、饮酒、吸烟、住院天数
目标分类变量疾病:
–心梗
–不稳定性心绞痛
新的实例:–(性别=‘男’,年龄<70, KILLP=‘I',饮酒=‘是’,吸烟≈‘是”,住院天数<7)
最可能是哪个疾病?
上传手工演算过程。
|
性别 |
年龄 |
KILLP |
饮酒 |
吸烟 |
住院天数 |
疾病 |
1 |
男 |
>80 |
1 |
是 |
是 |
7-14 |
心梗 |
2 |
女 |
70-80 |
2 |
否 |
是 |
<7 |
心梗 |
3 |
女 |
70-81 |
1 |
否 |
否 |
<7 |
不稳定性心绞痛 |
4 |
女 |
<70 |
1 |
否 |
是 |
>14 |
心梗 |
5 |
男 |
70-80 |
2 |
是 |
是 |
7-14 |
心梗 |
6 |
女 |
>80 |
2 |
否 |
否 |
7-14 |
心梗 |
7 |
男 |
70-80 |
1 |
否 |
否 |
7-14 |
心梗 |
8 |
女 |
70-80 |
2 |
否 |
否 |
7-14 |
心梗 |
9 |
女 |
70-80 |
1 |
否 |
否 |
<7 |
心梗 |
10 |
男 |
<70 |
1 |
否 |
否 |
7-14 |
心梗 |
11 |
女 |
>80 |
3 |
否 |
是 |
<7 |
心梗 |
12 |
女 |
70-80 |
1 |
否 |
是 |
7-14 |
心梗 |
13 |
女 |
>80 |
3 |
否 |
是 |
7-14 |
不稳定性心绞痛 |
14 |
男 |
70-80 |
3 |
是 |
是 |
>14 |
不稳定性心绞痛 |
15 |
女 |
<70 |
3 |
否 |
否 |
<7 |
心梗 |
16 |
男 |
70-80 |
1 |
否 |
否 |
>14 |
心梗 |
17 |
男 |
<70 |
1 |
是 |
是 |
7-14 |
心梗 |
18 |
女 |
70-80 |
1 |
否 |
否 |
>14 |
心梗 |
19 |
男 |
70-80 |
2 |
否 |
否 |
7-14 |
心梗 |
20 |
女 |
<70 |
3 |
否 |
否 |
<7 |
不稳定性心绞痛 |
3.使用朴素贝叶斯模型对iris数据集进行花分类。
尝试使用3种不同类型的朴素贝叶斯:
- 高斯分布型
- 多项式型
- 伯努利型
并使用sklearn.model_selection.cross_val_score(),对各模型进行交叉验证。
代码如下:
from sklearn.datasets import load_iris #导入鸢尾花数据
from sklearn.model_selection import cross_val_score #交叉验证
iris = load_iris() # 提取鸢尾花数据集
# 1、高斯分布
from sklearn.naive_bayes import GaussianNB
gnb = GaussianNB() # 建立模型
gnb_model = gnb.fit(iris.data, iris.target) # 模型训练
gnb_pre = gnb_model.predict(iris.data) # 预测模型
print("高斯分布模型准确率为:", sum( gnb_pre == iris.target ) / len(iris.target))
# 交叉验证
print("高斯分布交叉验证后")
gnb_score = cross_val_score(gnb,iris.data,iris.target,cv=10)
print("高斯分布模型准确率为:%.2F" % gnb_score.mean() , "
")
# 2、多项式型
from sklearn.naive_bayes import MultinomialNB
mnb = MultinomialNB() # 建立模型
mnb_model = mnb.fit(iris.data, iris.target) # 模型训练
mnb_pre = mnb_model.predict(iris.data) # 预测模型
print("多项式模型准确率为:",sum(mnb_pre == iris.target) / len(iris.target))
# 交叉验证
print("多项式型交叉验证后")
mnb_score = cross_val_score(mnb,iris.data, iris.target,cv=10)
print("多项式模型准确率为:%.2F" % mnb_score.mean() , "
")
# 3、伯努利型
from sklearn.naive_bayes import BernoulliNB
bnb = BernoulliNB()
bnb_model = bnb.fit(iris.data, iris.target)
bnb_pre = bnb.predict(iris.data)
print("伯努利模型准确率为:", sum(bnb_pre == iris.target) / len(iris.target))
# 交叉验证
print("伯努利型交叉验证后")
mnb_score = cross_val_score(bnb,iris.data, iris.target,cv=10)
print("伯努利型模型准确率为:%.2F" % mnb_score.mean() , "
")
结果如图:
从结果可以看出高斯分布型和多项式型对于iris数据集分类更合适