1.理解分类与监督学习、聚类与无监督学习。
简述分类与聚类的联系与区别。
联系:分类和聚类都是把每一条记录归应到对应的类别,对于想用分析的目标点,都会在数据集寻找离它最近的点,二个都用到了NN算法,结果是一样的。
区别:对于分类来说,在对数据集分类时,我们是知道这个数据集是有多少种类的,比如对一个学校的在校大学生进行性别分类,我们会下意识很清楚知道分为“男”,“女”,也是一种监督学习,一般用KNN算法。
而对于聚类来说,在对数据集操作时,我们是不知道该数据集包含多少类,我们要做的,是将数据集中相似的数据归纳在一起。比如预测某一学校的在校大学生的好朋友团体,我们不知道大学生和谁玩的好玩的不好,我们通过他们的相似度进行聚类,聚成n个团体,这就是聚类,一般用K-Means算法。
简述什么是监督学习与无监督学习。
监督学习:通过已有的训练样本去训练得到一个最优模型,再利用这个模型将所有的输入映射为相应的输出,对输出进行简单的判断从而实现分类的目的,也就具有了对未知数据进行分类的能力。
无监督学习:在于我们事先没有任何训练样本,而需要直接对数据进行建模。
2.朴素贝叶斯分类算法 实例
利用关于心脏病患者的临床历史数据集,建立朴素贝叶斯心脏病分类模型。
有六个分类变量(分类因子):性别,年龄、KILLP评分、饮酒、吸烟、住院天数
目标分类变量疾病:
–心梗
–不稳定性心绞痛
新的实例:–(性别=‘男’,年龄<70, KILLP=‘I',饮酒=‘是’,吸烟≈‘是”,住院天数<7)
最可能是哪个疾病?
上传手工演算过程。
性别 |
年龄 |
KILLP |
饮酒 |
吸烟 |
住院天数 |
疾病 |
|
1 |
男 |
>80 |
1 |
是 |
是 |
7-14 |
心梗 |
2 |
女 |
70-80 |
2 |
否 |
是 |
<7 |
心梗 |
3 |
女 |
70-81 |
1 |
否 |
否 |
<7 |
不稳定性心绞痛 |
4 |
女 |
<70 |
1 |
否 |
是 |
>14 |
心梗 |
5 |
男 |
70-80 |
2 |
是 |
是 |
7-14 |
心梗 |
6 |
女 |
>80 |
2 |
否 |
否 |
7-14 |
心梗 |
7 |
男 |
70-80 |
1 |
否 |
否 |
7-14 |
心梗 |
8 |
女 |
70-80 |
2 |
否 |
否 |
7-14 |
心梗 |
9 |
女 |
70-80 |
1 |
否 |
否 |
<7 |
心梗 |
10 |
男 |
<70 |
1 |
否 |
否 |
7-14 |
心梗 |
11 |
女 |
>80 |
3 |
否 |
是 |
<7 |
心梗 |
12 |
女 |
70-80 |
1 |
否 |
是 |
7-14 |
心梗 |
13 |
女 |
>80 |
3 |
否 |
是 |
7-14 |
不稳定性心绞痛 |
14 |
男 |
70-80 |
3 |
是 |
是 |
>14 |
不稳定性心绞痛 |
15 |
女 |
<70 |
3 |
否 |
否 |
<7 |
心梗 |
16 |
男 |
70-80 |
1 |
否 |
否 |
>14 |
心梗 |
17 |
男 |
<70 |
1 |
是 |
是 |
7-14 |
心梗 |
18 |
女 |
70-80 |
1 |
否 |
否 |
>14 |
心梗 |
19 |
男 |
70-80 |
2 |
否 |
否 |
7-14 |
心梗 |
20 |
女 |
<70 |
3 |
否 |
否 |
<7 |
不稳定性心绞痛 |
解:设x(x1~x6)为人的特征,y(y1:心梗,y2:不稳定性心绞痛)
性别为男的个数为8
年龄<7的个数为5
KILLP=‘I'个数为9
饮酒=‘是’个数为4
吸烟=‘是”个数为10
住院天数<7个数为6
概率p(心脏病)=8/20+5/20+9/20+4/20+10/20+6/20=2/5+1/4+9/20+1/5+1/2+3/10=0.00135
患有心梗疾病的个数为16,概率P(心梗)=16/20=4/5
在心梗的前提下是男性的个数为:7,概率P(男|心梗)=7/16
在心梗的前提下是年龄<70的个数为:4,概率P(年龄<70|心梗)=4/16=1/4
在心梗的前提下是KILLP=’1’的个数为:9,概率P(KILLP=’1’|心梗)=9/16
在心梗的前提下是饮酒=‘是’的个数为:3,概率P(饮酒=‘是’|心梗)=3/16
在心梗的前提下是吸烟=‘是’的个数为:7,概率P(吸烟=‘是’|心梗)=7/16
在心梗的前提下是住院天数<7的个数为:4,概率P(住院天数<7|心梗)=4/16=1/4
p(心梗|心脏病)=(4/5+7/16+1/4+9/16+3/16+7/16+1/4)/ 0.00135 =74.3%
患有不稳定性心绞痛疾病的个数为4,概率P(不稳定性心绞痛疾病)=4/20=1/5
在不稳定性心绞痛的前提下是男性的个数为:1,概率P(男|心绞痛)=1/4
在不稳定性心绞痛的前提下是年龄<70的个数为:1,概率P(年龄<70|心绞痛)=1/4。
在不稳定性心绞痛的前提下是KILLP=’1’的个数为:1,概率P(KILLP=’1’|心绞痛)=1/4
在不稳定性心绞痛的前提下是饮酒=‘是’的个数为:1,概率P(饮酒=‘是’|心绞痛)=1/4。
在不稳定性心绞痛的前提下是吸烟=‘是’的个数为:2,概率P(吸烟=‘是’|心绞痛)=2/4=1/2
在不稳定性心绞痛的前提下是住院天数<7的个数为:2,概率P(住院天数<7|心绞痛)=2/4=1/2
P(不稳定性心绞痛/心脏病)=(1/5+1/4+1/4+1/4+1/4+1/2+1/2) / 0.00135 =14.5%
因为p(心梗|心脏病)>P(不稳定性心绞痛/心脏病),所以患者患心梗概率高。
3.使用朴素贝叶斯模型对iris数据集进行花分类。
尝试使用3种不同类型的朴素贝叶斯:
- 高斯分布型
- 多项式型
- 伯努利型
并使用sklearn.model_selection.cross_val_score(),对各模型进行交叉验证。
from sklearn.datasets import load_iris #sklean的鸢尾花数据集 from sklearn.naive_bayes import GaussianNB, MultinomialNB, BernoulliNB #导入高斯贝叶斯,多项式型高斯贝叶斯,伯努利型高斯贝叶斯 from sklearn.model_selection import cross_val_score #sklean的交叉验证分数 # 导入鸢尾花数据集 iris = load_iris() data = iris['data'] target = iris['target'] # 高斯分布型 GNB_model = GaussianNB() # 构建高斯分布模型 GNB_model.fit(data, target) # 训练 GNB_pre = GNB_model.predict(data) # 预测 print("高斯分布模型准确率为",sum(GNB_pre == target) / len(data)) # 进行交叉验证 print("进行交叉验证:") GNB_score = cross_val_score(GNB_model, data, target, cv=10) print("高斯分布模型的精确率为", GNB_score.mean()) # 多项式型 MNB_model = MultinomialNB() # 构建多项式模型 MNB_model.fit(data, target) # 训练 MNB_pre = MNB_model.predict(data) # 预测 print("多项式模型准确率为" ,sum(MNB_pre == target) / len(data)) print("进行交叉验证:") # 进行交叉验证 MNB_score = cross_val_score(MNB_model, data, target, cv=10) print("多项式模型模型的精确率为",MNB_score.mean()) # 伯努利型 BNB_model = BernoulliNB() # 构建伯努利模型 BNB_model.fit(data, target) # 训练 BNB_pre = BNB_model.predict(data) # 预测 print("伯努利模型准确率为",sum(BNB_pre == target) / len(data)) print("进行交叉验证:") # 进行交叉验证 BNB_score = cross_val_score(BNB_model, data, target, cv=10) print("伯努利模型的准确率为", BNB_score.mean())
截图: