1.读取
2.数据预处理
3.数据划分—训练集和测试集数据划分
from sklearn.model_selection import train_test_split
x_train,x_test, y_train, y_test = train_test_split(data, target, test_size=0.2, random_state=0, stratify=y_train)
4.文本特征提取
sklearn.feature_extraction.text.CountVectorizer
sklearn.feature_extraction.text.TfidfVectorizer
from sklearn.feature_extraction.text import TfidfVectorizer
tfidf2 = TfidfVectorizer()
观察邮件与向量的关系
向量还原为邮件
4.模型选择
from sklearn.naive_bayes import GaussianNB
from sklearn.naive_bayes import MultinomialNB
说明为什么选择这个模型?
5.模型评价:混淆矩阵,分类报告
from sklearn.metrics import confusion_matrix
confusion_matrix = confusion_matrix(y_test, y_predict)
说明混淆矩阵的含义
from sklearn.metrics import classification_report
说明准确率、精确率、召回率、F值分别代表的意义
混淆矩阵:【TP FN】
【FP TN】
TP:真实为1,测试也为1
FP:真实为0,测试为1
FN:真实为1,测试也为0
TN:真实为0,测试也为0
准确率:所有样本中预测正确与样本的比率
精确率:预测为正类0的准确率,即TP/(TP+FP)
召回率:真实为0预测为0的准确率
F值:衡量二分类模型精确度的一种指标,兼顾了精确率和召回率
6.比较与总结
如果用CountVectorizer进行文本特征生成,与TfidfVectorizer相比,效果如何?
CountVectorizer只注重频数,而TfidfVectorizer还注重词汇在别的文本中数量,所以CountVectorizer的数据看起来可能会好些,但是可能有一些词汇虽然频数高但是没有意义的也被计算进去了,所以TfidfVectorizer的方法相比之下能够更好的挖掘有意义的特征值。