• 11.分类与监督学习,朴素贝叶斯分类算法


    1.理解分类与监督学习、聚类与无监督学习。

    简述分类与聚类的联系与区别。

    简述什么是监督学习与无监督学习。

     答:(1)联系:分类与聚类都是对对象的一种划分,两者都用到了NN算法。

           区别:分类是为了确定一个点的类别,类别是已知的,常用算法是KNN算法。

                 聚类是为了将一系列点分成若干类,最初是没有类别的,它的类别是在聚类过程中自动生成的,常用算法是K-Means算法。

      (2)监督学习:训练数据既有特征(feature)又有标签(label),通过训练,让机器可以自己找到特征和标签之间的联系,在面对只有特征没有标签的数据时,可以判断出标签。

        无监督学习:事先没有任何训练样本,而需要直接对数据进行建模。

    2.朴素贝叶斯分类算法 实例

    利用关于心脏病患者的临床历史数据集,建立朴素贝叶斯心脏病分类模型。

    有六个分类变量(分类因子):性别,年龄、KILLP评分、饮酒、吸烟、住院天数

    目标分类变量疾病:

    –心梗

    –不稳定性心绞痛

    新的实例:–(性别=‘男’,年龄<70, KILLP=‘I',饮酒=‘是’,吸烟≈‘是”,住院天数<7)

    最可能是哪个疾病?

    上传手工演算过程。

    性别

    年龄

    KILLP

    饮酒

    吸烟

    住院天数

    疾病

    1

    >80

    1

    7-14

    心梗

    2

    70-80

    2

    <7

    心梗

    3

    70-81

    1

    <7

    不稳定性心绞痛

    4

    <70

    1

    >14

    心梗

    5

    70-80

    2

    7-14

    心梗

    6

    >80

    2

    7-14

    心梗

    7

    70-80

    1

    7-14

    心梗

    8

    70-80

    2

    7-14

    心梗

    9

    70-80

    1

    <7

    心梗

    10

    <70

    1

    7-14

    心梗

    11

    >80

    3

    <7

    心梗

    12

    70-80

    1

    7-14

    心梗

    13

    >80

    3

    7-14

    不稳定性心绞痛

    14

    70-80

    3

    >14

    不稳定性心绞痛

    15

    <70

    3

    <7

    心梗

    16

    70-80

    1

    >14

    心梗

    17

    <70

    1

    7-14

    心梗

    18

    70-80

    1

    >14

    心梗

    19

    70-80

    2

    7-14

    心梗

    20

    <70

    3

    <7

    不稳定性心绞痛

    答:手动演算过程

     

    3.使用朴素贝叶斯模型对iris数据集进行花分类。

    尝试使用3种不同类型的朴素贝叶斯:

    • 高斯分布型
    • 多项式型
    • 伯努利型
    from sklearn.datasets import load_iris
    iris = load_iris()
    # 高斯分布型
    from sklearn.naive_bayes import GaussianNB
    gnb = GaussianNB()  # 建立模型
    gnb.fit(iris.data, iris.target)  # 训练模型
    pre = gnb.predict(iris.data)  # 预测模型
    g = sum(pre == iris.target)/len(iris.target)  #  计算预测的准确率
    print("高斯朴素贝叶斯的准确率:", g)
    
    # 多项式型
    from sklearn.naive_bayes import MultinomialNB
    mnb = MultinomialNB()
    mnb.fit(iris.data, iris.target)  # 训练模型
    pre = mnb.predict(iris.data)  # 预测模型
    d = sum(pre == iris.target)/len(iris.target)  # 计算预测的准确率
    print("多项式朴素贝叶斯的准确率:", d)
    
    # 伯努利型
    from sklearn.naive_bayes import BernoulliNB
    bnb = BernoulliNB()
    bnb.fit(iris.data, iris.target)  # 训练模型
    pre = bnb.predict(iris.data)  # 预测模型
    b = sum(pre == iris.target)/len(iris.target)  # 计算预测的准确率
    print("伯努利朴素贝叶斯的准确率:", b)

    并使用sklearn.model_selection.cross_val_score(),对各模型进行交叉验证。

    # 交叉验证
    from sklearn.model_selection import cross_val_score
    g_scores = cross_val_score(gnb, iris.data, iris.target, cv=10)
    print("高斯朴素贝叶斯的准确率:%.3f"% g_scores.mean())
    
    d_scores = cross_val_score(mnb, iris.data, iris.target, cv=10)
    print("多项式朴素贝叶斯的准确率:%.3f"% d_scores.mean())
    
    b_scores = cross_val_score(bnb, iris.data, iris.target, cv=10)
    print("伯努利朴素贝叶斯的准确率:%.3f"% b_scores.mean())

  • 相关阅读:
    西安.NET俱乐部群 推广代码
    跟我学Makefile(六)
    跟我学Makefile(五)
    跟我学Makefile(四)
    跟我学Makefile(三)
    跟我学Makefile(二)
    Kconfig文件说明2
    Kconfig文件说明
    kernel内核配置说明
    makefile中ifeq与ifneq dev/null和dev/zero简介 dd命令
  • 原文地址:https://www.cnblogs.com/momo-er/p/12851798.html
Copyright © 2020-2023  润新知