• 机器学习十一 ——分类与监督学习,朴素贝叶斯分类算法



    1.理解分类与监督学习、聚类与无监督学习。

    简述分类与聚类的联系与区别。

    联系:均是用于对数据进行分类的机器学习方法

    区别:

    分类 聚类
    监督学习 无监督学习
    有标签的和无标签的都有 数据无标签

    简述什么是监督学习与无监督学习。

     

    2.朴素贝叶斯分类算法 实例

    利用关于心脏病患者的临床历史数据集,建立朴素贝叶斯心脏病分类模型。

    有六个分类变量(分类因子):性别,年龄、KILLP评分、饮酒、吸烟、住院天数

    目标分类变量疾病:

    –心梗

    –不稳定性心绞痛

    新的实例:–(性别=‘男’,年龄<70, KILLP=‘I',饮酒=‘是’,吸烟≈‘是”,住院天数<7)

    最可能是哪个疾病?

    上传手工演算过程。

    性别

    年龄

    KILLP

    饮酒

    吸烟

    住院天数

    疾病

    1

    >80

    1

    7-14

    心梗

    2

    70-80

    2

    <7

    心梗

    3

    70-81

    1

    <7

    不稳定性心绞痛

    4

    <70

    1

    >14

    心梗

    5

    70-80

    2

    7-14

    心梗

    6

    >80

    2

    7-14

    心梗

    7

    70-80

    1

    7-14

    心梗

    8

    70-80

    2

    7-14

    心梗

    9

    70-80

    1

    <7

    心梗

    10

    <70

    1

    7-14

    心梗

    11

    >80

    3

    <7

    心梗

    12

    70-80

    1

    7-14

    心梗

    13

    >80

    3

    7-14

    不稳定性心绞痛

    14

    70-80

    3

    >14

    不稳定性心绞痛

    15

    <70

    3

    <7

    心梗

    16

    70-80

    1

    >14

    心梗

    17

    <70

    1

    7-14

    心梗

    18

    70-80

    1

    >14

    心梗

    19

    70-80

    2

    7-14

    心梗

    20

    <70

    3

    <7

    不稳定性心绞痛

     由表格可知

    心梗条件下:

    P(男 | 心梗) = 7/16 

    P(年龄<70 | 心梗) = 4/16  

    P( KILLP=‘I' | 心梗) = 9/16

    P( 饮酒=‘是’ | 心梗) = 3/16

    P( 吸烟=‘是’ | 心梗) = 7/16

    P( 住院天数<7 | 心梗) = 4/16

    不稳定性心绞痛条件下:

    P(男 | 不稳定性心绞痛) = 1/4

    P(年龄<70 | 不稳定性心绞痛) = 1/4  

    P( KILLP=‘I' | 不稳定性心绞痛) = 1/4

    P( 饮酒=‘是’ | 不稳定性心绞痛) = 1/4

    P( 吸烟=‘是’ | 不稳定性心绞痛) = 1/2

    P( 住院天数<7 | 不稳定性心绞痛)= 1/2

    设X为各特征的集合{性别=“男”、年龄<70,KILLP=‘I' ,饮酒=‘是‘, 吸烟=‘是’ ,住院天数<7},Y1为心梗,Y2为不稳定性心绞痛,根据贝叶斯定理

    P(Y1 | X) = ( P(X | Y1)P(Y1) )/  P(X)

    P(Y2 | X) = ( P(X | Y2)P(Y2) )/  P(X)

    要比较P(Y1 | X)和P(Y2 | X) 哪一个概率更大,因为分母相同,所以直接比较分子即可

     P(X | Y1)P(Y1) = P(男 | 心梗) * P(年龄<70 | 心梗)*  P( KILLP=‘I' | 心梗)*P( 饮酒=‘是’ | 心梗) *P( 吸烟=‘是’ | 心梗)*P( 住院天数<7 | 心梗)

              = 7/16 * 4/16 * 9/16 * 3/16 * 7/16 * 4/16 = 0.01614

     P(X | Y2)P(Y2) = P(男 | 不稳定性心绞痛) * P(年龄<70 | 不稳定性心绞痛)*  P( KILLP=‘I' | 不稳定性心绞痛)*P( 饮酒=‘是’ | 不稳定性心绞痛) *P( 吸烟=‘是’ | 不稳定性心绞痛)*P( 住院天数<7 | 不稳定性心绞痛)

            = 1/4 * 1/4 * 1/4 * 1/4 * 1/2 * 1/2 = 0.00312

    因为P(X | Y1)P(Y1) > P(X | Y2)P(Y2) ,

    所以该新实例最可能得的是心梗。

    3.使用朴素贝叶斯模型对iris数据集进行花分类。

    尝试使用3种不同类型的朴素贝叶斯:

    • 高斯分布型
    • 多项式型
    • 伯努利型

    并使用sklearn.model_selection.cross_val_score(),对各模型进行交叉验证。

    from sklearn.datasets import load_iris
    from sklearn.naive_bayes import GaussianNB
    from sklearn.naive_bayes import MultinomialNB
    from sklearn.naive_bayes import BernoulliNB
    from sklearn.model_selection import cross_val_score 
    
    iris = load_iris()
    
    #建模型
    GNB_Model = GaussianNB()
    MNB_Model = MultinomialNB()
    BNB_Model = BernoulliNB()
    
    #训练模型
    GNB_pre = GNB_Model.fit(iris.data,iris.target)
    MNB_pre = MNB_Model.fit(iris.data,iris.target)
    BNB_pre = BNB_Model.fit(iris.data,iris.target)
    
    #分类预测
    y_GNB = GNB_pre.predict(iris.data)
    y_MNB = MNB_pre.predict(iris.data)
    y_BNB = BNB_pre.predict(iris.data)
    
    #查看预测结果
    print("GNB预测总数:", iris.data.shape[0])
    print("GNB预测正确个数:",(iris.target == y_GNB).sum())
    print("MNB预测总数:", iris.data.shape[0])
    print("MNB预测正确个数:",(iris.target == y_MNB).sum())
    print("BNB预测总数:", iris.data.shape[0])
    print("BNB预测正确个数:",(iris.target == y_BNB).sum())
    
    #交叉验证
    GNB_scores = cross_val_score(GNB_Model,iris.data,iris.target,cv=10)
    print("高斯分布模型交叉验证平均准确度:",GNB_scores.mean())
    MNB_scores = cross_val_score(MNB_Model,iris.data,iris.target,cv=10)
    print("多项式模型交叉验证平均准确度:",MNB_scores.mean())
    BNB_scores = cross_val_score(BNB_Model,iris.data,iris.target,cv=10)
    print("伯努利模型交叉验证平均准确度:",BNB_scores.mean())

    结果:

    学习链接:

    https://blog.csdn.net/m0_38056893/article/details/102775040

  • 相关阅读:
    js简单排序
    js希尔排序
    js直接插入排序
    大数运算
    IOC和AOP的理解 (持续更新)
    频发事件的缓存技巧
    执行上下文深入解析(Execution Context)
    二分
    HDU 3790 最短路径问题 (双重权值)
    浅谈Targan算法
  • 原文地址:https://www.cnblogs.com/xiaoAP/p/12880961.html
Copyright © 2020-2023  润新知