• 贝叶斯垃圾邮件过滤


    朴素贝叶斯 概述

    贝叶斯分类是一类分类算法的总称,这类算法均以贝叶斯定理为基础,故统称为贝叶斯分类。本章首先介绍贝叶斯定理。最后,我们通过实例来讨论贝叶斯分类的中最简单的一种: 朴素贝叶斯分类。

    称之为朴素是因为整个形式化过程只做最原始最简单的假设。

    贝叶斯理论 & 条件概率

    贝叶斯理论

    我们现在有一个数据集,它由两类数据组成,数据分布如下图所示:

    朴素贝叶斯示例数据分布

    我们现在用 p1(x,y) 表示数据点 (x,y) 属于类别 1(图中用圆点表示的类别)的概率,用 p2(x,y) 表示数据点 (x,y) 属于类别 2(图中三角形表示的类别)的概率,那么对于一个新数据点 (x,y),可以用下面的规则来判断它的类别:

    • 如果 p1(x,y) > p2(x,y) ,那么类别为1
    • 如果 p2(x,y) > p1(x,y) ,那么类别为2

    也就是说,我们会选择高概率对应的类别。这就是贝叶斯决策理论的核心思想,即选择具有最高概率的决策。

    条件概率

    如果你对 p(x,y|c1) 符号很熟悉,那么可以跳过本小节。

    有一个装了 7 块石头的罐子,其中 3 块是白色的,4 块是黑色的。如果从罐子中随机取出白色石头的可能性是多少?由于取石头有 7 种可能,其中 3 种为白色,所以取出白色石头的概率为 3/7 。那么取到黑色石头的概率又是多少呢?很显然,是 4/7 。我们使用 P(white) 来表示取到白色石头的概率,其概率值可以通过白色石头数目除以总的石头数目来得到。

    包含 7 块石头的集合

    如果这 7 块石头如下图所示,放在两个桶中,那么上述概率应该如何计算?

    7块石头放入两个桶中

    计算 P(white) 或者 P(black) ,如果事先我们知道石头所在桶的信息是会改变结果的。这就是所谓的条件概率(conditional probablity)。假定计算的是从 B 桶取到白色石头的概率,这个概率可以记作 P(white|bucketB) ,我们称之为“在已知石头出自 B 桶的条件下,取出白色石头的概率”。很容易得到,P(white|bucketA) 值为 2/4 ,P(white|bucketB) 的值为 1/3 。

    条件概率的计算公式如下:

    P(white|bucketB) = P(white and bucketB) / P(bucketB)

    首先,我们用 B 桶中白色石头的个数除以两个桶中总的石头数,得到 P(white and bucketB) = 1/7 .其次,由于 B 桶中有 3 块石头,而总石头数为 7 ,于是 P(bucketB) 就等于 3/7 。于是又 P(white|bucketB) = P(white and bucketB) / P(bucketB) = (1/7) / (3/7) = 1/3 。

    另外一种有效计算条件概率的方法称为贝叶斯准则。贝叶斯准则告诉我们如何交换条件概率中的条件与结果,即如果已知 P(x|c),要求 P(c|x),那么可以使用下面的计算方法:

    计算p(c|x)的方法

    使用条件概率来分类

    上面我们提到贝叶斯决策理论要求计算两个概率 p1(x, y) 和 p2(x, y):

    • 如果 p1(x, y) > p2(x, y), 那么属于类别 1;
    • 如果 p2(x, y) > p1(X, y), 那么属于类别 2.

    这并不是贝叶斯决策理论的所有内容。使用 p1() 和 p2() 只是为了尽可能简化描述,而真正需要计算和比较的是 p(c1|x, y) 和 p(c2|x, y) .这些符号所代表的具体意义是: 给定某个由 x、y 表示的数据点,那么该数据点来自类别 c1 的概率是多少?数据点来自类别 c2 的概率又是多少?注意这些概率与概率 p(x, y|c1) 并不一样,不过可以使用贝叶斯准则来交换概率中条件与结果。具体地,应用贝叶斯准则得到:

    应用贝叶斯准则

    使用上面这些定义,可以定义贝叶斯分类准则为:

    • 如果 P(c1|x, y) > P(c2|x, y), 那么属于类别 c1;
    • 如果 P(c2|x, y) > P(c1|x, y), 那么属于类别 c2.

    在文档分类中,整个文档(如一封电子邮件)是实例,而电子邮件中的某些元素则构成特征。我们可以观察文档中出现的词,并把每个词作为一个特征,而每个词的出现或者不出现作为该特征的值,这样得到的特征数目就会跟词汇表中的词的数目一样多。

    我们假设特征之间 相互独立 。所谓 独立(independence) 指的是统计意义上的独立,即一个特征或者单词出现的可能性与它和其他单词相邻没有关系,比如说,“我们”中的“我”和“们”出现的概率与这两个字相邻没有任何关系。这个假设正是朴素贝叶斯分类器中 朴素(naive) 一词的含义。朴素贝叶斯分类器中的另一个假设是,每个特征同等重要。

    Note: 朴素贝叶斯分类器通常有两种实现方式: 一种基于伯努利模型实现,一种基于多项式模型实现。这里采用前一种实现方式。该实现方式中并不考虑词在文档中出现的次数,只考虑出不出现,因此在这个意义上相当于假设词是等权重的。

    朴素贝叶斯 场景

    机器学习的一个重要应用就是文档的自动分类。

    在文档分类中,整个文档(如一封电子邮件)是实例,而电子邮件中的某些元素则构成特征。我们可以观察文档中出现的词,并把每个词作为一个特征,而每个词的出现或者不出现作为该特征的值,这样得到的特征数目就会跟词汇表中的词的数目一样多。

    朴素贝叶斯是上面介绍的贝叶斯分类器的一个扩展,是用于文档分类的常用算法。下面我们会进行一些朴素贝叶斯分类的实践项目。

    朴素贝叶斯 原理

    朴素贝叶斯 伪代码

    提取所有文档中的词条并进行去重
    获取文档的所有类别
    计算每个类别中的文档数目
    对每篇训练文档: 
        对每个类别: 
            如果词条出现在文档中-->增加该词条的计数值(for循环或者矩阵相加)
            增加所有词条的计数值(此类别下词条总数)
    对每个类别: 
        对每个词条: 
            将该词条的数目除以总词条数目得到的条件概率(P(词条|类别))
    返回该文档属于每个类别的条件概率(P(类别|文档的所有词条))

    朴素贝叶斯 算法特点

    优点: 在数据较少的情况下仍然有效,可以处理多类别问题。
    缺点: 对于输入数据的准备方式较为敏感。
    适用数据类型: 标称型数据。
    对分类而言,使用概率有时比是用硬规则更有效,
    词集模型与词袋模型:在词袋中每个单词可以出现多次,在词集中每个单词只能出现一次,
    下溢出:用python相乘许多很小的数,最后四舍五入会得到0,一种解决办法是对乘积取自然对数,ln(a*b)=ln(a)+ln(b)

    代码如下:

    #----------*- coding: utf-8 -*-----------
    #----------贝叶斯垃圾邮件过滤-------------
    
    from numpy import *
    
    #创建试验样本
    def loadDataSet():
        postingList=[['my', 'dog', 'has', 'flea', 'problems', 'help', 'please'],
                     ['maybe', 'not', 'take', 'him', 'to', 'dog', 'park', 'stupid'],
                     ['my', 'dalmation', 'is', 'so', 'cute', 'I', 'love', 'him'],
                     ['stop', 'posting', 'stupid', 'worthless', 'garbage'],
                     ['mr', 'licks', 'ate', 'my', 'steak', 'how', 'to', 'stop', 'him'],
                     ['quit', 'buying', 'worthless', 'dog', 'food', 'stupid']]
        classVec = [0,1,0,1,0,1]    #1代表侮辱性文字0不是
        #返回值 第一个是词条切分后的文档集合  第二个是标签的集合
        return postingList,classVec
    #创建包含所有文档中的不重复词的列表
    def createVocabList(dataSet):
        vocabSet = set([])  #创建一个不重复的空集合
        for document in dataSet:
            #将每篇文档中出现的新词添加到集合中
            vocabSet = vocabSet | set(document) #操作符|用于求两个集合的并
        return list(vocabSet)
    '''
    #词集模型
    #文档转换为向量
    #输出为0或1 表示词汇表中出现的单词在输入文档中是否出现
    def setOfWords2Vec(vocabList, inputSet):
        #创建一个和词汇表等长的0向量
        returnVec = [0]*len(vocabList)
        for word in inputSet:
            if word in vocabList:
                #index(str)方法检测字符串中是否包含子字符串str
                returnVec[vocabList.index(word)] = 1
            else: 
                print ("the word: %s is not in my Vocabulary!" % (word))
        return returnVec
    '''
    #词袋模型
    #文档转换为向量
    #输出为0或1 表示词汇表中出现的单词在输入文档中出现的次数
    def bagOfWords2Vec(vocabList, inputSet):
        #创建一个和词汇表等长的0向量
        returnVec = [0]*len(vocabList)
        for word in inputSet:
            if word in vocabList:
                #index(str)方法检测字符串中是否包含子字符串str
                returnVec[vocabList.index(word)] += 1
            else: 
                print ("the word: %s is not in my Vocabulary!" % (word))
        return returnVec
    #
    def trainNB0(trainMatrix,trainCategory):
        numTrainDocs = len(trainMatrix)
        numWords = len(trainMatrix[0])
        pAbusive = sum(trainCategory)/float(numTrainDocs)
        #多个数乘积只要有一个为零 就全为零 为了消除此影响,初始化为1矩阵  下面的分母初始化为2
        p0Num = ones(numWords); p1Num = ones(numWords)      
        p0Denom = 2.0; p1Denom = 2.0                        
        for i in range(numTrainDocs):
            if trainCategory[i] == 1:  
                #对每篇文档每个类别中 如果词条出现在文档中 则增加词条的计数值
                p1Num += trainMatrix[i]
                p1Denom += sum(trainMatrix[i])
            else:
                p0Num += trainMatrix[i]
                p0Denom += sum(trainMatrix[i])
        #转换为对数表示是因为怕数据太小电脑直接认为是0
        p1Vect = log(p1Num/p1Denom)          
        p0Vect = log(p0Num/p0Denom)        
        return p0Vect,p1Vect,pAbusive
    #判断属于哪一类
    def classifyNB(vec2Classify, p0Vec, p1Vec, pClass1):
        p1 = sum(vec2Classify * p1Vec) + log(pClass1)    #element-wise mult
        p0 = sum(vec2Classify * p0Vec) + log(1.0 - pClass1)
        if p1 > p0:
            return 1
        else: 
            return 0
    #封装所有操作
    def testingNB():
        listOPosts,listClasses = loadDataSet()
        myVocabList = createVocabList(listOPosts)
        trainMat=[]
        for postinDoc in listOPosts:
            trainMat.append(setOfWords2Vec(myVocabList, postinDoc))
        p0V,p1V,pAb = trainNB0(array(trainMat),array(listClasses))
        testEntry = ['love', 'my', 'dalmation']
        thisDoc = array(setOfWords2Vec(myVocabList, testEntry))
        print (testEntry,'classified as: ',classifyNB(thisDoc,p0V,p1V,pAb))
        testEntry = ['stupid', 'garbage']
        thisDoc = array(setOfWords2Vec(myVocabList, testEntry))
        print (testEntry,'classified as: ',classifyNB(thisDoc,p0V,p1V,pAb))
    #切分文本
    def textParse(bigString):    #input is big string, #output is word list
        #导入正则表达式的库
        import re
        #使用正则表达式切分文本,分隔符是除了单词数字以外的任何字符(.)
        listOfTokens = re.split(r'W*', bigString)
        return [tok.lower() for tok in listOfTokens if len(tok) > 2] 
    def spamTest():
        docList=[]; classList = []; fullText =[]
        #导入并解析文本文件
        for i in range(1,26):
            wordList = textParse(open('email/spam/%d.txt' % (i) ).read())
            docList.append(wordList)
            fullText.extend(wordList)
            classList.append(1)
            wordList = textParse(open('email/ham/%d.txt' % (i) ).read())
            docList.append(wordList)
            fullText.extend(wordList)
            classList.append(0)
        vocabList = createVocabList(docList)#create vocabulary
        #原因是python3中range不返回数组对象,而是返回range对象  
        #trainingSet = range(50); testSet=[]         
        trainingSet = list(range(50)); testSet=[]      
        #随机选择10个文件作为测试集
        for i in range(10):spamTest()
            randIndex = int(random.uniform(0,len(trainingSet)))
            testSet.append(trainingSet[randIndex])
            del(trainingSet[randIndex])  
        #剩下的数据作为训练集
        trainMat=[]; trainClasses = []
        #训练
        for docIndex in trainingSet:#train the classifier (get probs) trainNB0
            trainMat.append(bagOfWords2Vec(vocabList, docList[docIndex]))
            trainClasses.append(classList[docIndex])
        p0V,p1V,pSpam = trainNB0(array(trainMat),array(trainClasses))
        errorCount = 0bayes1.
        #测试
        for docIndex in testSet:        #classify the remaining items
            wordVector = bagOfWords2Vec(vocabList, docList[docIndex])
            if classifyNB(array(wordVector),p0V,p1V,pSpam) != classList[docIndex]:
                errorCount += 1
                print ("classification error",docList[docIndex])
        print ('the error rate is: ',float(errorCount)/len(testSet))

    需要补充注释 最好每一行都有注释

    运行结果如下:

    》import bayes1
    》bayes1.spamTest()
    the error rate is: 0.0 C:ProgramDataAnaconda3lib e.py:212: FutureWarning: split() requires a non-empty pattern match. return _compile(pattern, flags).split(string, maxsplit)

     有时候使用概率的分类比使用硬规则更有效

  • 相关阅读:
    ThinkPHP框架基础知识
    ajax分页练习
    实例练习:购物车
    事件
    ajax基础
    jQuery事件
    jQuery基础
    PHP制作登录注册页面
    iview里tree组件改造
    Vue CLI及其vue.config.js(一)
  • 原文地址:https://www.cnblogs.com/Aaron12/p/8985591.html
Copyright © 2020-2023  润新知