• 第四章--基于概率论的分类方法:朴素贝叶斯--过滤垃圾邮件(二)


    朴素贝叶斯对电子邮件进行分类的步骤:
    收集数据:提供文本文件。
    准备数据:将文本文件解析成词条向量。
    分析数据:检查词条确保解析的正确性。
    训练算法:使用我们之前建立的trainNB0()函数。
    测试算法:使用classifyNB(),并构建一个新的测试函数来计算文档集的错误率。
    使用算法:构建一个完整的程序对一组文档进行分类,将错分的文档输出到屏幕上。

      1 import re
      2 
      3 """
      4 函数说明:接收一个大字符串并将其解析为字符串列表
      5 Parameters:
      6   7 Returns:
      8   9 """
     10 def textParse(bigString):                     #将字符串转换为字符列表
     11     listOfTokens = re.split(r'W*', bigString)         #将特殊符号作为切分标志进行字符串切分,即非字母、非数字
     12     return [tok.lower() for tok in listOfTokens if len(tok) > 2]     #除了单个字母,例如大写的I,其它单词变成小写
     13 """
     14 函数说明:将切分的实验样本词条整理成不重复的词条列表,也就是词汇表
     15 Parameters:
     16     dataSet - 整理的样本数据集
     17 Returns:
     18     vocabSet - 返回不重复的词条列表,也就是词汇表
     19 """
     20 def createVocabList(dataSet):
     21     vocabSet = set([])        #创建一个空的不重复列表
     22     for document in dataSet:
     23         vocabSet = vocabSet | set(document)  #取并集
     24     return list(vocabSet)
     25 
     26 if __name__ == '__main__':
     27     docList = []; classList = []
     28     for i in range(1, 26):                      #遍历25个txt文件
     29         wordList = textParse(open('email/spam/%d.txt' % i, 'r').read())     #读取每个垃圾邮件,并字符串转换成字符串列表
     30         docList.append(wordList)
     31         classList.append(1)                     #标记垃圾邮件,1表示垃圾文件
     32         wordList = textParse(open('email/ham/%d.txt' % i, 'r').read())      #读取每个非垃圾邮件,并字符串转换成字符串列表
     33         docList.append(wordList)
     34         classList.append(0)                     #标记非垃圾邮件,1表示垃圾文件
     35     vocabList = createVocabList(docList)        #创建词汇表,不重复
     36     print(vocabList)
     37 
     38 #根据词汇表,我们就可以将每个文本向量化。我们将数据集分为训练集和测试集,
     39 #使用交叉验证的方式测试朴素贝叶斯分类器的准确性。
     40 import numpy as np
     41 import random
     42 """
     43 函数说明:根据vocabList词汇表,将inputSet向量化,向量的每个元素为1或0
     44 Parameters:
     45     vocabList - createVocabList返回的列表
     46     inputSet - 切分的词条列表
     47 Returns:
     48     returnVec - 文档向量,词集模型
     49 """
     50 def setOfWords2Vec(vocabList, inputSet):
     51     returnVec = [0] * len(vocabList)                                    #创建一个其中所含元素都为0的向量
     52     for word in inputSet:                                                #遍历每个词条
     53         if word in vocabList:                                            #如果词条存在于词汇表中,则置1
     54             returnVec[vocabList.index(word)] = 1
     55         else: print("the word: %s is not in my Vocabulary!" % word)
     56     return returnVec                                                    #返回文档向量
     57 """
     58 函数说明:根据vocabList词汇表,构建词袋模型
     59 Parameters:
     60     vocabList - createVocabList返回的列表
     61     inputSet - 切分的词条列表
     62 Returns:
     63     returnVec - 文档向量,词袋模型
     64 """
     65 def bagOfWords2VecMN(vocabList, inputSet):
     66     returnVec = [0]*len(vocabList)                                        #创建一个其中所含元素都为0的向量
     67     for word in inputSet:                                                #遍历每个词条
     68         if word in vocabList:                                            #如果词条存在于词汇表中,则计数加一
     69             returnVec[vocabList.index(word)] += 1
     70     return returnVec                                                    #返回词袋模型
     71 """
     72 函数说明:朴素贝叶斯分类器训练函数
     73 Parameters:
     74     trainMatrix - 训练文档矩阵,即setOfWords2Vec返回的returnVec构成的矩阵
     75     trainCategory - 训练类别标签向量,即loadDataSet返回的classVec
     76 Returns:
     77     p0Vect - 侮辱类的条件概率数组
     78     p1Vect - 非侮辱类的条件概率数组
     79     pAbusive - 文档属于侮辱类的概率
     80 """
     81 def trainNB0(trainMatrix, trainCategory):
     82     numTrainDocs = len(trainMatrix)                            #计算训练的文档数目
     83     numWords = len(trainMatrix[0])                            #计算每篇文档的词条数
     84     pAbusive = sum(trainCategory)/float(numTrainDocs)        #文档属于侮辱类的概率
     85     p0Num = np.ones(numWords); p1Num = np.ones(numWords)    #创建numpy.ones数组,词条出现数初始化为1,拉普拉斯平滑
     86     p0Denom = 2.0; p1Denom = 2.0                            #分母初始化为2,拉普拉斯平滑
     87     for i in range(numTrainDocs):
     88         if trainCategory[i] == 1:            #统计属于侮辱类的条件概率所需的数据,即P(w0|1),P(w1|1),P(w2|1)···
     89             p1Num += trainMatrix[i]
     90             p1Denom += sum(trainMatrix[i])
     91         else:          #统计属于非侮辱类的条件概率所需的数据,即P(w0|0),P(w1|0),P(w2|0)···
     92             p0Num += trainMatrix[i]
     93             p0Denom += sum(trainMatrix[i])
     94     p1Vect = np.log(p1Num/p1Denom)          #取对数,防止下溢出
     95     p0Vect = np.log(p0Num/p0Denom)
     96     return p0Vect, p1Vect, pAbusive             #返回属于侮辱类的条件概率数组,属于非侮辱类的条件概率数组,文档属于侮辱类的概率
     97 """
     98 函数说明:朴素贝叶斯分类器分类函数
     99 Parameters:
    100     vec2Classify - 待分类的词条数组
    101     p0Vec - 侮辱类的条件概率数组
    102     p1Vec -非侮辱类的条件概率数组
    103     pClass1 - 文档属于侮辱类的概率
    104 Returns:
    105     0 - 属于非侮辱类
    106     1 - 属于侮辱类
    107 """
    108 def classifyNB(vec2Classify, p0Vec, p1Vec, pClass1):
    109     p1 = sum(vec2Classify * p1Vec) + np.log(pClass1)        #对应元素相乘。logA * B = logA + logB,所以这里加上log(pClass1)
    110     p0 = sum(vec2Classify * p0Vec) + np.log(1.0 - pClass1)
    111     if p1 > p0:
    112         return 1
    113     else:
    114         return 0
    115 """
    116 函数说明:朴素贝叶斯分类器训练函数
    117 Parameters:
    118     trainMatrix - 训练文档矩阵,即setOfWords2Vec返回的returnVec构成的矩阵
    119     trainCategory - 训练类别标签向量,即loadDataSet返回的classVec
    120 Returns:
    121     p0Vect - 侮辱类的条件概率数组
    122     p1Vect - 非侮辱类的条件概率数组
    123     pAbusive - 文档属于侮辱类的概率
    124 """
    125 def trainNB0(trainMatrix, trainCategory):
    126     numTrainDocs = len(trainMatrix)                            #计算训练的文档数目
    127     numWords = len(trainMatrix[0])                            #计算每篇文档的词条数
    128     pAbusive = sum(trainCategory)/float(numTrainDocs)        #文档属于侮辱类的概率
    129     p0Num = np.ones(numWords); p1Num = np.ones(numWords)    #创建numpy.ones数组,词条出现数初始化为1,拉普拉斯平滑
    130     p0Denom = 2.0; p1Denom = 2.0                            #分母初始化为2,拉普拉斯平滑
    131     for i in range(numTrainDocs):
    132         if trainCategory[i] == 1:           #统计属于侮辱类的条件概率所需的数据,即P(w0|1),P(w1|1),P(w2|1)···
    133             p1Num += trainMatrix[i]
    134             p1Denom += sum(trainMatrix[i])
    135         else:     #统计属于非侮辱类的条件概率所需的数据,即P(w0|0),P(w1|0),P(w2|0)···
    136             p0Num += trainMatrix[i]
    137             p0Denom += sum(trainMatrix[i])
    138     p1Vect = np.log(p1Num/p1Denom)         #取对数,防止下溢出
    139     p0Vect = np.log(p0Num/p0Denom)
    140     return p0Vect, p1Vect, pAbusive         #返回属于侮辱类的条件概率数组,属于非侮辱类的条件概率数组,文档属于侮辱类的概率
    141 """
    142 函数说明:接收一个大字符串并将其解析为字符串列表
    143 Parameters:
    144 145 Returns:
    146 147 """
    148 def textParse(bigString):                                                   #将字符串转换为字符列表
    149     listOfTokens = re.split(r'W*', bigString)                              #将特殊符号作为切分标志进行字符串切分,即非字母、非数字
    150     return [tok.lower() for tok in listOfTokens if len(tok) > 2]            #除了单个字母,例如大写的I,其它单词变成小写
    151 """
    152 函数说明:测试朴素贝叶斯分类器
    153 Parameters:
    154 155 Returns:
    156 157 """
    158 def spamTest():
    159     docList = []; classList = []; fullText = []
    160     for i in range(1, 26):                                                  #遍历25个txt文件
    161         wordList = textParse(open('email/spam/%d.txt' % i, 'r').read())     #读取每个垃圾邮件,并字符串转换成字符串列表
    162         docList.append(wordList)
    163         fullText.append(wordList)
    164         classList.append(1)                                                 #标记垃圾邮件,1表示垃圾文件
    165         wordList = textParse(open('email/ham/%d.txt' % i, 'r').read())      #读取每个非垃圾邮件,并字符串转换成字符串列表
    166         docList.append(wordList)
    167         fullText.append(wordList)
    168         classList.append(0)                                                 #标记非垃圾邮件,1表示垃圾文件
    169     vocabList = createVocabList(docList)                                    #创建词汇表,不重复
    170     trainingSet = list(range(50)); testSet = []                             #创建存储训练集的索引值的列表和测试集的索引值的列表
    171     for i in range(10):                                                     #从50个邮件中,随机挑选出40个作为训练集,10个做测试集
    172         randIndex = int(random.uniform(0, len(trainingSet)))                #随机选取索索引值
    173         testSet.append(trainingSet[randIndex])                              #添加测试集的索引值
    174         del(trainingSet[randIndex])                                         #在训练集列表中删除添加到测试集的索引值
    175     trainMat = []; trainClasses = []                                        #创建训练集矩阵和训练集类别标签系向量
    176     for docIndex in trainingSet:                                            #遍历训练集
    177         trainMat.append(setOfWords2Vec(vocabList, docList[docIndex]))       #将生成的词集模型添加到训练矩阵中
    178         trainClasses.append(classList[docIndex])                            #将类别添加到训练集类别标签系向量中
    179     p0V, p1V, pSpam = trainNB0(np.array(trainMat), np.array(trainClasses))  #训练朴素贝叶斯模型
    180     errorCount = 0                                                          #错误分类计数
    181     for docIndex in testSet:                                                #遍历测试集
    182         wordVector = setOfWords2Vec(vocabList, docList[docIndex])           #测试集的词集模型
    183         if classifyNB(np.array(wordVector), p0V, p1V, pSpam) != classList[docIndex]:    #如果分类错误
    184             errorCount += 1                                                 #错误计数加1
    185             print("分类错误的测试集:", docList[docIndex])
    186     print('错误率:%.2f%%' % (float(errorCount) / len(testSet) * 100))
    187 
    188 if __name__ == '__main__':
    189     spamTest()
  • 相关阅读:
    个人兴趣与公司业务的关系
    分析能力的8个等级(转)
    DSL应用的优点
    架构师应具备的概要技能
    Cheetah
    不能运行VS2005的DSL Tool例子
    推荐:原型工具GUI Design Studio
    Viewpoints 1.0 for Visual Studio .NET 2008
    原创故事 - 不死鸡和不死牛的故事
    Antlr构建表达式引擎
  • 原文地址:https://www.cnblogs.com/fd-682012/p/11658756.html
Copyright © 2020-2023  润新知