• 支持向量机(SVM)


    #svm 支持向量机(Support Vector Machines, SVM)
    '''
    有些人认为,svm是最好的现成的分类器,这里说的“现成”指的是分类器不加修改即可直接使用。同时,
    这就意味着在数据上应用基本形式的SVM分类器就可以得到低错误率的结果。SVM能够对训练集之外的数据点
    做出很好的分类决策。
    SVM有很多实现,这里关注其中最流行的一种实现,即序列最小化(SMO)算法。在此之后,将介绍如何使用
    一种称为核函数(kernel)的方式将SVM扩展到更多数据集上。最后会回顾第1章中手写识别的例子。并考察
    能否通过SVM来提高识别的效果。
    
    支持向量(support vector)就是离分割超平面最近的那些点。接下来要试着做大化支持向量到分割面
    的距离,需要找到此问题的优化解决方法。
    
    首先我们必须找到与超平面具有最小间隔的数据点,这些数据点就是前面提到的支持向量。一旦找到具有最小间隔
    的数据点,我们就需要对该间隔最大化。
    拉格朗日乘子法...推到没仔细看,就大体浏览了一遍。
    '''
    
    
    '''
    1996年,John Platt 发布了一个称为SMO的强大算法,用于训练SVM,SMO表示序列最小优化(Sequential Minimal Optimization)
    Platt的SMO算法是将大优化问题分解为多个小优化问题来求解的。这些小优化问题往往很容易求解,并且将它们
    进行顺序求解的结果与将他们作为整体来求解的结果是完全一致的。在结果完全相同的同时,SMO算法的求解时间短很多
    SMO算法的目标是求出一系列alpha(阿尔法)和b,一旦求出了这些alpha,就很容易计算出权重向量w并得到分割超平面。
    '''
    from numpy import *
    
    #6-1 SMO算法中的辅助函数
    def loadDataSet(fileName):
        dataMat = []; labelMat = []
        fr = open(fileName)
        for line in fr.readlines():
            lineArr = line.strip().split('	')
            dataMat.append([float(lineArr[0]), float(lineArr[1])])
            labelMat.append(float(lineArr[2]))
        return dataMat,labelMat
    
    '''
    i是alpha的下标
    m是所有alpha的数目
    '''
    def selectJrand(i,m):
        j=i
        while (j==i):
            j = int(random.uniform(0, m))
        return j
    
    '''
    调整大于H或小于L的alpha值。
    '''
    def clipAlpha(aj, H, L):
        if aj > H:
            aj = H
        if L > aj:
            aj = L
        return aj
    
    #简化版SMO算法
    '''
    dataMatIn:数据集
    classLabels:类别标签
    C:常数C
    toler:容错率
    maxIter:最大的循环次数
    '''
    def smoSimple(dataMatIn, classLabels, C, toler, maxIter):
        dataMatrix = mat(dataMatIn); labelMat = mat(classLabels).transpose()
        b=0; m,n=shape(dataMatrix)
        alphas = mat(zeros((m,1)))
        iter = 0
        while(iter < maxIter):
            alphaPairsChanged = 0
            for i in range(m):
                fXi = float(multiply(alphas, labelMat).T*(dataMatrix*dataMatrix[i,:].T)) + b
                Ei = fXi - float(labelMat[i])
                if ((labelMat[i]*Ei < -toler) and (alphas[i] < C)) or 
                    ((labelMat[i]*Ei > toler) and (alphas[i] > 0)):
                    j = selectJrand(i,m)    #随机选择第二个alpha
                    fXj = float(multiply(alphas, labelMat).T*(dataMatrix*dataMatrix[j,:].T)) + b
                    Ej = fXj - float(labelMat[j])
                    alphaIold = alphas[i].copy();
                    alphaJold = alphas[j].copy();
                    #保证alpha在0与C之间
                    if (labelMat[i] != labelMat[j]):
                        L = max(0, alphas[j] - alphas[i])
                        H = min(C, C + alphas[j] - alphas[i])
                    else:
                        L = max(0, alphas[j] + alphas[i] - C)
                        H = min(C, alphas[j] + alphas[i])
                    if L==H: print("L==H"); continue
                    eta = 2.0 * dataMatrix[i,:]*dataMatrix[j,:].T - dataMatrix[i,:]*dataMatrix[i,:].T- 
                        dataMatrix[j,:]*dataMatrix[j,:].T
                    if eta >= 0: print("eta>=0"); continue
                    alphas[j] -= labelMat[j]*(Ei - Ej)/eta
                    alphas[j] = clipAlpha(alphas[j], H, L)
                    if (abs(alphas[j] - alphaJold) < 0.00001): print("j not moving enough"); continue
                    alphas[i] += labelMat[j]*labelMat[i]*(alphaJold -alphas[j])
                    b1 = b - Ei - labelMat[i]*(alphas[i]-alphaIold)*dataMatrix[i,:]*dataMatrix[i,:].T - 
                        labelMat[j]*(alphas[j]-alphaJold)*dataMatrix[i,:]*dataMatrix[j,:].T
                    b2 = b - Ej - labelMat[i]*(alphas[i]-alphaIold)*dataMatrix[i,:]*dataMatrix[j,:].T - 
                        labelMat[j]*(alphas[j]- alphaJold)*dataMatrix[j,:]*dataMatrix[j,:].T
                    if (0 < alphas[i]) and (C > alphas[i]): b = b1
                    elif (0 < alphas[j]) and (C > alphas[j]): b = b2
                    else: b = (b1 + b2)/2.0
                    alphaPairsChanged += 1
                    print("iter: %d i: %d, pairs changed %d" % (iter,i,alphaPairsChanged))
                if (alphaPairsChanged == 0): iter += 1
                else: iter = 0
                print("iteration number: %d" % iter)
            return b,alphas
    
    #完整版Platt SMO的支持函数
    
    '''
    首要的事情是建立一个数据结构来保存所有的值,通过构建一个对象optStruct来实现
    '''
    class optStruct:
        #def __init__(self, dataMatIn, classLabels, C, toler):
        def __init__(self, dataMatIn, classLabels, C, toler, kTup):
            self.X = dataMatIn
            self.labelMat = classLabels
            self.C = C
            self.tol = toler
            self.m = shape(dataMatIn)[0]
            self.alphas = mat(zeros((self.m,1)))
            self.b = 0
            self.eCache = mat(zeros((self.m,2)))        #误差缓存
            #核函数新增数据结构
            self.K = mat(zeros((self.m, self.m)))
            for i in range(self.m):
                self.K[:,i] = kernelTrans(self.X, self.X[i,:], kTup)    #kTup 核函数信息的元组
    
    def calcEk(oS, k):
        #fXk = float(multiply(oS.alphas, oS.labelMat).T * (oS.X * oS.X[k,:].T)) + oS.b
        #核函数版本
        fXk = float(multiply(oS.alphas, oS.labelMat).T*oS.K[:,k] + oS.b)
        Ek = fXk - float(oS.labelMat[k])
        return Ek
    
    def selectJ(i, oS, Ei):
        maxK = -1; maxDeltaE = 0; Ej = 0
        oS.eCache[i] = [1, Ei]
        validEcacheList = nonzero(oS.eCache[:,0].A)[0]
        if (len(validEcacheList)) > 1:
            for k in validEcacheList:
                if k == i: continue
                Ek = calcEk(oS, k)
                deltaE = abs(Ei - Ek)
                if(deltaE > maxDeltaE):
                    maxK = k; maxDeltaE = deltaE; Ej = Ek       #选择具有最大步长的j
            return maxK, Ej
        else:
            j = selectJrand(i, oS.m)
            Ej = calcEk(oS, j)
        return j, Ej
    
    def updateEk(oS, k):
        Ek = calcEk(oS, k)
        oS.eCache[k] = [1,Ek]
    
    #完整Platt SMO算法中的优化例程
    def innerL(i, oS):
        Ei = calcEk(oS, i)
        if((oS.labelMat[i]*Ei < -oS.tol) and (oS.alphas[i] < oS.C)) or
            ((oS.labelMat[i]*Ei > oS.tol) and (oS.alphas[i] > 0)):
            j,Ej = selectJ(i, oS, Ei)
            #第二个alpha选择中的启发式方式
            alphaIold = oS.alphas[i].copy(); alphaJold = oS.alphas[j].copy();
            if (oS.labelMat[i] != oS.labelMat[j]):
                L = max(0, oS.alphas[j] - oS.alphas[i])
                H = min(oS.C, oS.C+oS.alphas[j]-oS.alphas[i])
            else:
                L = max(0, oS.alphas[j]+oS.alphas[i]-oS.C)
                H = min(oS.C, oS.alphas[j]+oS.alphas[i])
            if L==H: print("L==H"); return 0
            #eta = 2.0*oS.X[i,:]*oS.X[j,:].T - oS.X[i,:]*oS.X[i,:].T - oS.X[j,:]*oS.X[j,:].T
            #核函数版本eta
            eta = 2.0*oS.K[i,j] - oS.K[i,i] - oS.K[j,j]
            if eta >= 0: print("eta >= 0"); return 0
            oS.alphas[j] -= oS.labelMat[j]*(Ei-Ej)/eta
            oS.alphas[j] = clipAlpha(oS.alphas[j], H, L)
            updateEk(oS, j)         #更新误差缓存
            if(abs(oS.alphas[j] - alphaJold) < 0.00001):
                print("j not moving enough"); return 0
            oS.alphas[i] += oS.labelMat[j]*oS.labelMat[i]*(alphaJold - oS.alphas[j])
            updateEk(oS, i)         #更新误差缓存
            '''
            b1 = oS.b - Ei - oS.labelMat[i]*(oS.alphas[i]-alphaIold)*oS.X[i,:]*oS.X[i,:].T -
                oS.labelMat[j]*(oS.alphas[j]-alphaJold)*oS.X[i,:]*oS.X[j,:].T
            b2 = oS.b - Ej - oS.labelMat[i]*(oS.alphas[i]-alphaIold)*oS.X[i,:]*oS.X[j,:].T -
                oS.labelMat[j]*(oS.alphas[j]-alphaJold)*oS.X[j,:]*oS.X[j,:].T
            '''
            #和函数版本b1、b2
            b1 = oS.b - Ei - oS.labelMat[i]*(oS.alphas[i]-alphaIold)*oS.K[i,i] - oS.labelMat[j]*
                (oS.alphas[j]-alphaJold)*oS.K[i,j]
            b2 = oS.b - Ej - oS.labelMat[i]*(oS.alphas[i]-alphaIold)*oS.K[i,j] - oS.labelMat[j]*
                (oS.alphas[j]-alphaJold)*oS.K[j,j]
            if (0 < oS.alphas[i]) and (oS.C > oS.alphas[i]): oS.b = b1
            elif (0 < oS.alphas[j]) and (oS.C > oS.alphas[j]): oS.b = b2
            else: oS.b = (b1+b2)/2.0
            return 1
        else: return 0
    
    #完整版Platt SMO的外循环代码
    def smoP(dataMatIn, classLabels, C, toler, maxIter, kTup=('lin', 0)):
        oS = optStruct(mat(dataMatIn), mat(classLabels).transpose(), C, toler, kTup)
        iter = 0
        entireSet = True; alphaPairsChanged = 0
        while (iter < maxIter) and ((alphaPairsChanged > 0) or (entireSet)):
            alphaPairsChanged = 0
            if entireSet:
                for i in range(oS.m):       #遍历所有的值
                    alphaPairsChanged += innerL(i, oS)
                    print("fullSet, iter: %d  i:%d, pairs changed %d" %
                        (iter, i, alphaPairsChanged))
                iter += 1
            else:       #遍历非边界值
                nonBoundIs = nonzero((oS.alphas.A > 0) * (oS.alphas.A < C))[0]
                for i in nonBoundIs:
                    alphaPairsChanged += innerL(i, oS)
                    print("non-bound, iter: %d i:%d, pairs changed %d" %
                        (iter, i, alphaPairsChanged))
                    iter += 1
            if entireSet: entireSet = False
            elif (alphaPairsChanged == 0): entireSet = True
            print("iteration number: %d" % iter)
        return oS.b, oS.alphas
    
    '''
    smoSimple和smoP接口实现的功能是类似的
    刚才我们花了大量时间来计算那些alpha值,但是如何利用它们进行分类呢?
    这不成问题,首先必须基于alpha值得到超平面,这也包含w的计算。下面列出的一个小函数可以用于实现上述任务:
    '''
    def calcWs(alphas, dataArr, classLabels):
        X = mat(dataArr); labelMat = mat(classLabels).transpose()
        m,n = shape(X)
        w = zeros((n,1))
        for i in range(m):
            w += multiply(alphas[i]*labelMat[i], X[i,:].T)
        return w
    
    #在复杂数据上应用核函数,利用核函数将数据映射到高维空间
    '''
    这种从某个特征空间到另一个特征空间的映射是通过核函数来实现的。我们可以把核函数想象成一个包裹器
    或者接口,它能把数据从某个很难处理的形式转换成为另一个较容易处理的形式。也可以想象成为另一种
    距离计算的方法。
    径向基核函数
    径向基函数是svm种常用的一种核函数。径向基函数是一个采用向量作为自变量的函数,能够基于向量距离运算
    输出一个标量。这个距离可以是从<0,0>向量或者气压向量开始计算的距离。接下来,我们将会使用到径向基函数
    的高斯版本。
    核方法或者说核技巧会将数据(有时是非线性数据)从一个低维空间映射到一个高维空间,
    可以将一个在低维空间中的非线性问题转换成高维空间下的线性问题来求解。核方法不止在SVM
    中适用,还可以用于其他算法中。而其中的径向基函数是一个常用的度量两个向量距离的核函数。
    支持向量机是一个二类分类器。当用其解决多类问题时,则需要额外的方法对其进行扩展。
    SVM的效果也对优化参数和所用核函数中的参数敏感。
    '''
    def kernelTrans(X, A, kTup):
        m,n = shape(X)
        K = mat(zeros((m,1)))
        if kTup[0]=='lin': K = X*A.T
        elif kTup[0]=='rbf':
            for j in range(m):
                deltaRow = X[j,:] - A
                K[j] = deltaRow*deltaRow.T
            K = exp(K /(-1*kTup[1]**2))
        else: raise NameError('Houston We Have a Problem -- That Kernal is not recognized')
        return K
    
    def testRbf(k1=1.3):
        dataArr,labelArr = loadDataSet('testSetRBF.txt')
        b,alphas = smoP(dataArr, labelArr, 200, 0.0001, 10000, ('rbf', k1))
        dataMat=mat(dataArr); labelMat=mat(labelArr).transpose()
        svInd=nonzero(alphas.A>0)[0]
        sVs=dataMat[svInd]
        labelSV = labelMat[svInd];
        print("there are %d Support Vectors" % shape(sVs)[0])
        m,n = shape(dataMat)
        errorCount = 0
        for i in range(m):
            kernelEval = kernelTrans(sVs, dataMat[i,:],('rbf', k1))
            predict=kernelEval.T * multiply(labelSV, alphas[svInd]) + b
            if sign(predict) != sign(labelArr[i]): errorCount += 1
        print("the training error rate is: %f" % (float(errorCount)/m))
        dataArr,labelArr = loadDataSet('testSetRBF2.txt')
        errorCount = 0
        dataMat=mat(dataArr); labelMat=mat(labelArr).transpose()
        m,n = shape(dataMat)
        for i in range(m):
            kernelEval = kernelTrans(sVs, dataMat[i,:],('rbf', k1))
            predict=kernelEval.T * multiply(labelSV, alphas[svInd]) + b
            if sign(predict) != sign(labelArr[i]): errorCount += 1
        print("the training error rate is: %f" % (float(errorCount)/m))
    
    
    #基于SVM的手写数字识别
    def img2vector(filename):
        returnVect = zeros((1,1024))
        fr = open(filename)
        for i in range(32):
            lineStr = fr.readline()
            for j in range(32):
                returnVect[0, 32*i+j] = int(lineStr[j])
        return returnVect
    
    def loadImages(dirName):
        from os import listdir
        hwLabels = []
        trainingFileList = listdir(dirName)
        m = len(trainingFileList)
        trainingMat = zeros((m,1024))
        for i in range(m):
            fileNameStr = trainingFileList[i]
            fileStr = fileNameStr.split('.')[0]
            classNumStr = int(fileStr.split('_')[0])
            if classNumStr == 9: hwLabels.append(-1)
            else: hwLabels.append(1)
            trainingMat[i,:] = img2vector('%s/%s' % (dirName, fileNameStr))
        return trainingMat,hwLabels
    
    def testDigits(kTup=('rbf', 10)):
        #这里只测试二分类,训练和测试数据中,只有1和9的数据
        dataArr,labelArr = loadImages('trainingDigits')
        b,alphas = smoP(dataArr, labelArr, 200, 0.0001, 10000, kTup)
        dataMat = mat(dataArr); labelMat = mat(labelArr).transpose()
        svInd=nonzero(alphas.A>0)[0]
        sVs=dataMat[svInd]
        labelSV = labelMat[svInd]
        print("there are %d Support Vectors" % shape(sVs)[0])
        m,n=shape(dataMat)
        errorCount=0
        for i in range(m):
            kernelEval = kernelTrans(sVs,dataMat[i,:],kTup)
            predict=kernelEval.T*multiply(labelSV, alphas[svInd])+b
            if sign(predict)!=sign(labelArr[i]): errorCount += 1
        print("the training error rate is: %f" % (float(errorCount)/m))
        dataArr,labelArr = loadImages('testDigits')
        errorCount=0
        dataMat=mat(dataArr); labelMat=mat(labelArr).transpose()
        m,n=shape(dataMat)
        for i in range(m):
            kernelEval = kernelTrans(sVs, dataMat[i,:],kTup)
            predict=kernelEval.T*multiply(labelSV,alphas[svInd])+b
            if sign(predict) != sign(labelArr[i]): errorCount += 1
        print("the test error rate is: %f" % (float(errorCount)/m))
    
    if __name__ == '__main__':
        '''
        dataArr,labelArr = loadDataSet('testSet.txt')
        #b,alphas = smoSimple(dataArr, labelArr, 0.6, 0.001, 40)
        
        b,alphas = smoP(dataArr, labelArr, 0.6, 0.001, 40)
        print("b:",b)
        print("alphas[alphas>0]:", alphas[alphas>0])
        ws = calcWs(alphas, dataArr, labelArr)
        print("w:", ws)
        #分类
        dataMat=mat(dataArr)
        print(dataMat[5]*mat(ws)+b)
        '''
        #testRbf()
        #手写数字识别测试
        testDigits()

     手写数字识别测试结果:

    训练和测试文件:

    链接:https://pan.baidu.com/s/1_ixSxXsurc01mtBWFv46RQ
    提取码:3bqw

  • 相关阅读:
    HDU1287+枚举
    HDU1303+水
    HDU1286+线性筛素数
    HDU1293+Java+大整数
    POJ1992+简单DP
    三种Cache写入方式原理简介
    Hadoop分布式文件系统:架构和设计要点 转
    GFS, HDFS, Blob File System架构对比转
    python
    Cassandra,Mongodb,CouchDB,Redis,Riak,HBase比较转
  • 原文地址:https://www.cnblogs.com/go-ahead-wsg/p/13560853.html
Copyright © 2020-2023  润新知