朴素贝叶斯为根据贝叶斯定理,假设每个特征之间相互独立,然后根据每个特征值所属的概率最大的分类相加,最后得出哪个分类的概率可能性最大,就把预测的数据划分到那个类别下,对实现原理感兴趣的小伙伴,可以翻翻其他的博主的文章看看。
附上本人测试的代码,如下,
# -*- coding:utf-8 -*- # 导入科学计算工具 import numpy as np # 导入鸢尾花数据集 from sklearn.datasets import load_iris # 导入朴素贝叶斯 from sklearn import naive_bayes from sklearn.model_selection import train_test_split # 加载鸢尾花数据集 iris = load_iris() # 提取数据 trainX = iris.data # 提取标签 trainY = iris.target # 建立高斯分布的朴素贝叶斯模型 X_train,X_test,y_train,y_test = train_test_split(trainX,trainY,test_size = 0.3) clf=naive_bayes.GaussianNB() #高斯分布,没有参数 # 建立多项式分布的朴素贝叶斯模型 # clf=naive_bayes.MultinomialNB() #多项式分布 # 训练模型 clf.fit(X_train,y_train) clf.fit(X_test,y_test) # 输出准确率 print("训练准确率:" + str(clf.score(X_train,y_train))) print("测试准确率:" + str(clf.score(X_test,y_test))) ''' # 效果 训练准确率:0.96 测试准确率:0.96 '''