1.理解分类与监督学习、聚类与无监督学习。
简述分类与聚类的联系与区别。
简述什么是监督学习与无监督学习。
(1)分类与聚类:
① 联系:分类和聚类都包含一个过程:对于想要分析的目标点,都会在数据集中寻找离它最近的点,即二者都用到了NN算法。
② 区别:分类是为了确定一个点的类别,具体有哪些类别是已知的,常用的算法是KNN,是一种无监督学习;聚类是将一系列点分成若干类,事先是没有类别的,常用算法是K-Means算法,是一种无监督学习。
(2)监督学习和无监督学习:
① 监督学习:每个实例都是由一个输入对象(通常为矢量)和一个期望的输出值(也称为监督信号)组成;用有标注的数据训练模型,并产生一个推断的功能;对于新的实例,可以用于映射出改实例的类别。
② 无监督学习:缺乏足够的先验知识;在数据(没有被标记)中发现一些规律;任务是聚类和降维。
2.朴素贝叶斯分类算法 实例
利用关于心脏病患者的临床历史数据集,建立朴素贝叶斯心脏病分类模型。
有六个分类变量(分类因子):性别,年龄、KILLP评分、饮酒、吸烟、住院天数
目标分类变量疾病:
–心梗
–不稳定性心绞痛
新的实例:–(性别=‘男’,年龄<70, KILLP=‘I',饮酒=‘是’,吸烟≈‘是”,住院天数<7)
最可能是哪个疾病?
上传手工演算过程。
性别 |
年龄 |
KILLP |
饮酒 |
吸烟 |
住院天数 |
疾病 |
|
1 |
男 |
>80 |
1 |
是 |
是 |
7-14 |
心梗 |
2 |
女 |
70-80 |
2 |
否 |
是 |
<7 |
心梗 |
3 |
女 |
70-81 |
1 |
否 |
否 |
<7 |
不稳定性心绞痛 |
4 |
女 |
<70 |
1 |
否 |
是 |
>14 |
心梗 |
5 |
男 |
70-80 |
2 |
是 |
是 |
7-14 |
心梗 |
6 |
女 |
>80 |
2 |
否 |
否 |
7-14 |
心梗 |
7 |
男 |
70-80 |
1 |
否 |
否 |
7-14 |
心梗 |
8 |
女 |
70-80 |
2 |
否 |
否 |
7-14 |
心梗 |
9 |
女 |
70-80 |
1 |
否 |
否 |
<7 |
心梗 |
10 |
男 |
<70 |
1 |
否 |
否 |
7-14 |
心梗 |
11 |
女 |
>80 |
3 |
否 |
是 |
<7 |
心梗 |
12 |
女 |
70-80 |
1 |
否 |
是 |
7-14 |
心梗 |
13 |
女 |
>80 |
3 |
否 |
是 |
7-14 |
不稳定性心绞痛 |
14 |
男 |
70-80 |
3 |
是 |
是 |
>14 |
不稳定性心绞痛 |
15 |
女 |
<70 |
3 |
否 |
否 |
<7 |
心梗 |
16 |
男 |
70-80 |
1 |
否 |
否 |
>14 |
心梗 |
17 |
男 |
<70 |
1 |
是 |
是 |
7-14 |
心梗 |
18 |
女 |
70-80 |
1 |
否 |
否 |
>14 |
心梗 |
19 |
男 |
70-80 |
2 |
否 |
否 |
7-14 |
心梗 |
20 |
女 |
<70 |
3 |
否 |
否 |
<7 |
不稳定性心绞痛 |
3.使用朴素贝叶斯模型对iris数据集进行花分类。
尝试使用3种不同类型的朴素贝叶斯:
- 高斯分布型
- 多项式型
- 伯努利型
并使用sklearn.model_selection.cross_val_score(),对各模型进行交叉验证。
(1)3种不同类型的朴素贝叶斯:
代码:
from sklearn.datasets import load_iris iris = load_iris() # 使用鸢尾花数据集 # 高斯分布型 from sklearn.naive_bayes import GaussianNB gnb = GaussianNB() # 建立模型 gnb_model = gnb.fit(iris.data, iris.target) # 模型训练 gnb_pre = gnb_model.predict(iris.data) # 预测模型 print("高斯分布模型准确率为:", sum(gnb_pre == iris.target) / len(iris.target)) # 多项式型 from sklearn.naive_bayes import MultinomialNB mln = MultinomialNB() # 建立模型 mln_model = mln.fit(iris.data, iris.target) # 模型训练 mln_pre = mln_model.predict(iris.data) # 预测模型 print("多项式模型准确率为:", sum(mln_pre == iris.target) / len(iris.target)) # 伯努利型 from sklearn.naive_bayes import BernoulliNB bln = BernoulliNB() bln_model = bln.fit(iris.data, iris.target) bln_pre = bln.predict(iris.data) print("伯努利模型准确率为:", sum(bln_pre == iris.target) / len(iris.target))
结果如下:
(2)交叉验证:
代码:
##交叉验证 from sklearn.model_selection import cross_val_score # 高斯分布型 gnb_scores = cross_val_score(gnb, iris.data, iris.target, cv=10) print("高斯分布准确率:%.3F" % gnb_scores.mean()) # 多项式型 mln_scores = cross_val_score(mln, iris.data, iris.target, cv=10) print("多项式准确率:%.3F" % mln_scores.mean()) # 伯努利型 bln_scores = cross_val_score(bln, iris.data, iris.target, cv=10) print("伯努利准确率:%.3F" % bln_scores.mean())
结果如下:
从这两个结果都可以看出,高斯分布和多项式型朴素贝叶斯的准确率较高,但是伯努利型的朴素贝叶斯准确率很低,不适合这份数据。