1.理解分类与监督学习、聚类与无监督学习。
简述分类与聚类的联系与区别。
对于分类来说,在对数据集分类时,我们是知道这个数据集是有多少种类的;而对于聚类来说,在对数据集操作时,我们是不知道该数据集包含多少类,我们要做的,是将数据集中相似的数据归纳在一起。他们都是对数据集的归纳。
简述什么是监督学习与无监督学习。
有监督学习即人工给定一组数据,每个数据的属性值也给出,对于数据集中的每个样本,我们想要算法预 测并给出正确答案:回归问题,分类问题。
无监督学习中,数据是没有标签的或者是有一样的标签的。我们不知道数据的含义和作用,只知道是有一个数据集的。数据集可以判断是有两个数据集,自己进行分类,这就是聚类学习。
2.朴素贝叶斯分类算法 实例
利用关于心脏病患者的临床历史数据集,建立朴素贝叶斯心脏病分类模型。
有六个分类变量(分类因子):性别,年龄、KILLP评分、饮酒、吸烟、住院天数
目标分类变量疾病:
–心梗
–不稳定性心绞痛
新的实例:–(性别=‘男’,年龄<70, KILLP=‘I',饮酒=‘是’,吸烟≈‘是”,住院天数<7)
最可能是哪个疾病?
上传手工演算过程。
性别 |
年龄 |
KILLP |
饮酒 |
吸烟 |
住院天数 |
疾病 |
|
1 |
男 |
>80 |
1 |
是 |
是 |
7-14 |
心梗 |
2 |
女 |
70-80 |
2 |
否 |
是 |
<7 |
心梗 |
3 |
女 |
70-81 |
1 |
否 |
否 |
<7 |
不稳定性心绞痛 |
4 |
女 |
<70 |
1 |
否 |
是 |
>14 |
心梗 |
5 |
男 |
70-80 |
2 |
是 |
是 |
7-14 |
心梗 |
6 |
女 |
>80 |
2 |
否 |
否 |
7-14 |
心梗 |
7 |
男 |
70-80 |
1 |
否 |
否 |
7-14 |
心梗 |
8 |
女 |
70-80 |
2 |
否 |
否 |
7-14 |
心梗 |
9 |
女 |
70-80 |
1 |
否 |
否 |
<7 |
心梗 |
10 |
男 |
<70 |
1 |
否 |
否 |
7-14 |
心梗 |
11 |
女 |
>80 |
3 |
否 |
是 |
<7 |
心梗 |
12 |
女 |
70-80 |
1 |
否 |
是 |
7-14 |
心梗 |
13 |
女 |
>80 |
3 |
否 |
是 |
7-14 |
不稳定性心绞痛 |
14 |
男 |
70-80 |
3 |
是 |
是 |
>14 |
不稳定性心绞痛 |
15 |
女 |
<70 |
3 |
否 |
否 |
<7 |
心梗 |
16 |
男 |
70-80 |
1 |
否 |
否 |
>14 |
心梗 |
17 |
男 |
<70 |
1 |
是 |
是 |
7-14 |
心梗 |
18 |
女 |
70-80 |
1 |
否 |
否 |
>14 |
心梗 |
19 |
男 |
70-80 |
2 |
否 |
否 |
7-14 |
心梗 |
20 |
女 |
<70 |
3 |
否 |
否 |
<7 |
不稳定性心绞痛 |
设X为患心脏病
P(x)=2/5*1/4*1/2*1/5*9/20*3/10=0.00135
在资料中患者疾病为心梗的前提下:
患者(性别=‘男’)概率:p(x1|y1) = 7/16
患者(年龄<70)概率:p(x2|y1) = 4/16
患者(KILLP=‘I)概率:p(x3|y1) = 9/16
患者(饮酒=‘是’)概率:p(x4|y1) = 3/16
患者(吸烟≈‘是’)概率:p(x5|y1) = 7/16
患者(住院天数<7)概率:p(x6|y1) = 4/16
同理可得:
在资料中患者疾病为心绞病的前提下:
患者(性别=‘男’)概率:p(x1|y2) = 1/4
患者(年龄<70)概率:p(x2|y2) = 1/4
患者(KILLP=‘I)概率:p(x3|y2) = 1/4
患者(饮酒=‘是’)概率:p(x4|y2) = 1/4
患者(吸烟≈‘是’)概率:p(x5|y2) = 2/4
患者(住院天数<7)概率:p(x6|y2) = 2/4
在心脏病患者资料中疾病为心梗概率:4/5
在心脏病患者资料中疾病为心绞病概率:1/5
判定心脏病患者疾病为心梗概率:
p(y1|x) = p(x1|y1)p(x2|y1)p(x3|y1)…p(x6|y1)/p(x) ≈ 75%
判定心脏病患者疾病为心绞病概率:
p(y2|x) = p(x1|y2)p(x2|y2)p(x3|y2)…p(x6|y2)/p(x) ≈ 15%
其中:p(y1|x) > p(y2|x)
由此可知:新实例患者最可能患心梗心脏病。
3.使用朴素贝叶斯模型对iris数据集进行花分类。
尝试使用3种不同类型的朴素贝叶斯:
高斯分布型
多项式型
伯努利型
并使用sklearn.model_selection.cross_val_score(),对各模型进行交叉验证。
from sklearn.datasets import load_iris from sklearn.naive_bayes import GaussianNB from sklearn.naive_bayes import MultinomialNB from sklearn.naive_bayes import BernoulliNB from sklearn.model_selection import cross_val_score # 引入鸢尾花数据集 iris = load_iris() # 高斯分布型 g = GaussianNB() # 建立模型 g_model = g.fit(iris.data, iris.target) # 模型训练 g_pre = g_model.predict(iris.data) # 预测模型 print("高斯分布模型准确率:", sum(g_pre == iris.target) / len(iris.target)) # 多项式型 m = MultinomialNB() m_model = m.fit(iris.data, iris.target) m_pre = m_model.predict(iris.data) print("多项式模型准确率:", sum(m_pre == iris.target) / len(iris.target)) # 伯努利型 b = BernoulliNB() b_model = b.fit(iris.data, iris.target) b_pre = b.predict(iris.data) print("伯努利模型准确率:", sum(b_pre == iris.target) / len(iris.target)) #交叉验证 print(" ------交叉验证------") # 高斯分布型 g = GaussianNB() g_scores = cross_val_score(g, iris.data, iris.target, cv=10) print('高斯分布型精确度:%.2f' % g_scores.mean()) # 多项式型 m = MultinomialNB() m_scores = cross_val_score(m, iris.data, iris.target, cv=10) print('多项式型精确度:%.2f' % m_scores.mean()) # 伯努利型 b = BernoulliNB() b_scores = cross_val_score(b, iris.data, iris.target, cv=10) print('多项式型精确度:%.2f' % b_scores.mean())
结果: