• 《机器学习实战》学习笔记(九):树回归


    欢迎关注WX公众号:【程序员管小亮】

    【机器学习】《机器学习实战》读书笔记及代码 总目录

    GitHub代码地址:

    ——————————————————————————————————————————————————————

    本章内容

    • CART算法
    • 回归与模型树
    • 树剪枝算法
    • Python中GUI的使用

    1、复杂数据的回归问题

    《机器学习实战》学习笔记(八):预测数值型数据 - 回归 中,包含了一些强大的方法,如:岭回归、lasso、前向逐步回归等,但这些方法创建的模型需要拟合所有的样本点(局部加权线性回归除外)。当数据拥有 众多特征并且特征之间关系十分复杂 时,构建全局模型的想法就显得太难了,也略显笨拙。而且,实际生活中很多问题都是 非线性的,不可能使用全局线性模型来拟合任何数据。

    一种可行的方法是将数据集切分成很多份易建模的数据,然后利用线性回归技术来建模。如果首次切分后仍然难以拟合线性模型就继续切分。在这种切分方式下**,树结构** 和 回归法 就相当有用。

    CART(Classification And Regression Trees,分类回归树) 就是一种树构建算法。该算法既可以用于 分类 还可以用于 回归,因此非常值得学习。
    在这里插入图片描述

    2、ID3 算法与 CART 算法

    《机器学习实战》学习笔记(三):决策树 中使用决策树来进行分类。决策树不断将数据切分成小数据集,直到所有目标变量完全相同,或者数据不能再切分为止。决策树是一种 贪心算法,它要在给定时间内做出最佳选择,但并不关心能否达到全局最优。

    树回归
    优点:可以对复杂和非线性的数据建模。
    缺点:结果不易理解。
    适用数据类型:数值型和标称型数据。

    《机器学习实战》学习笔记(三):决策树 中使用的树构建算法是ID3。ID3的做法是 每次选取当前最佳的特征来分割数据,并按照该特征的所有可能取值来切分。也就是说,如果一个特征有4种取值,那么数据将被切成4份。一旦按某特征切分后,该特征在之后的算法执行过程中将不会再起作用,所以有观点认为这种 切分方式过于迅速。另外一种方法是二元切分法,即每次把数据集切成两份。如果数据的某特征值等于切分所要求的值,那么这些数据就进入树的左子树,反之则进入树的右子树。

    除了切分过于迅速外,ID3算法还存在另一个问题,它 不能直接处理连续型特征。只有事先将连续型特征转换成离散型,才能在ID3算法中使用,但这种转换过程会破坏连续型变量的内在性质。而使用二元切分法则易于对树构建过程进行调整以处理连续型特征,具体的处理方法是:如果特征值大于给定值就走左子树,否则就走右子树。另外,二元切分法也节省了树的构建时间,但这点意义也不是特别大,因为这些树构建一般是离线完成,时间并非需要重点关注的因素。

    CART是十分著名且广泛记载的树构建算法,它使用二元切分来处理连续型变量。对CART稍作修改就可以处理回归问题。回归树与分类树的思路类似,但叶节点的数据类型不是离散型,而是连续型。

    树回归的一般方法
    (1) 收集数据:采用任意方法收集数据。
    (2) 准备数据:需要数值型的数据,标称型数据应该映射成二值型数据。
    (3) 分析数据:绘出数据的二维可视化显示结果,以字典方式生成树。
    (4) 训练算法:大部分时间都花费在叶节点树模型的构建上。
    (5) 测试算法:使用测试数据上的R2值来分析模型的效果。
    (6) 使用算法:使用训练出的树做预测,预测结果还可以用来做很多事情

    3、连续和离散型特征的树的构建

    在树的构建过程中,需要解决多种类型数据的存储问题。这里使用一部字典来存储树的数据结构,该字典将包含以下4个元素。

    • 待切分的特征。
    • 待切分的特征值。
    • 右子树。当不再需要切分的时候,也可以是单个值。
    • 左子树。与右子树类似。

    CART算法只做二元切分,所以可以固定树的数据结构。树包含左键和右键,可以存储另一棵子树或者单个值。字典还包含特征和特征值这两个键,它们给出切分算法所有的特征和特征值。

    先来看一个简单的例子,创建一个简单的矩阵,然后按照指定列的某个值切分该矩阵。

    import numpy as np
    
    # 函数说明:根据给定特征和特征值,通过数组过滤的方式切分数据集合
    """
    Parameters:
    	dataSet - 数据集合
    	feature - 待切分的特征
    	value - 特征的某个值
    """
    def binSplitDataSet(dataSet, feature, value):
        mat0 = dataSet[np.nonzero(dataSet[:,feature] > value)[0],:]
        mat1 = dataSet[np.nonzero(dataSet[:,feature] <= value)[0],:]
        return mat0, mat1
    
    
    if __name__ == '__main__':
        testMat = np.mat(np.eye(4))
        print("testMat:", testMat)
        mat0, mat1 = binSplitDataSet(testMat, 1, 0.5)
        print("mat0:", mat0)
        print("mat1:", mat1)
    

    在这里插入图片描述

    4、将CART 算法用于回归

    要对数据的复杂关系建模,这里借用树结构来帮助切分数据,那么如何实现数据的切分呢?怎么才能知道是否已经充分切分呢?这些问题的答案取决于叶节点的建模方式。回归树假设叶节点是常数值,这种策略认为数据中的复杂关系可以用树结构来概括。

    为成功构建以分段常数为叶节点的树,需要度量出数据的一致性。使用树进行分类,会在给定节点时计算数据的混乱度。那么如何计算连续型数值的混乱度呢?事实上,在数据集上计算混乱度是非常简单的。首先计算所有数据的均值,然后计算每条数据的值到均值的差值。为了对正负差值同等看待,一般使用绝对值或平方值来代替上述差值。

    from numpy import *
    import matplotlib.pyplot as plt
    
    # 函数说明:加载数据
    """
    Parameters:
    	filename - 文件名
    """
    def loadDataSet(fileName):
        dataMat = []
        fr = open(fileName)
        for line in fr.readlines():
            curLine = line.strip().split('	')
            fltLine = list(map(float, curLine))
            dataMat.append(fltLine)
        return dataMat
    
    # 函数说明:绘制数据集分布
    """
    Parameters:
    	filename - 文件名
    """
    def plotDataSet(filename):
        dataMat = loadDataSet(filename)
        n = len(dataMat)  # 数据个数
        xcord = []
        ycord = []  # 样本点
        for i in range(n):
            xcord.append(dataMat[i][0])
            ycord.append(dataMat[i][1])  # 样本点
        fig = plt.figure()
        ax = fig.add_subplot(111)  # 添加subplot
        ax.scatter(xcord, ycord, s=20, c='blue', alpha=.5)  # 绘制样本点
        plt.title('DataSet')  # 绘制title
        plt.xlabel('X')
        plt.show()
    
    
    if __name__ == '__main__':
        filename = 'ex00.txt'
        plotDataSet(filename)
    

    基于CART算法构建回归树的简单数据集
    在这里插入图片描述
    下面利用这个数据集来测试一下CART算法。

    import numpy as np
    
    # 函数说明:加载数据
    """
    Parameters:
        fileName - 文件名
    """
    def loadDataSet(fileName):
        dataMat = []
        fr = open(fileName)
        for line in fr.readlines():
            curLine = line.strip().split('	')
            fltLine = list(map(float, curLine))                    #转化为float类型
            dataMat.append(fltLine)
        return dataMat
    
    # 函数说明:根据特征切分数据集合
    """
    Parameters:
        dataSet - 数据集合
        feature - 带切分的特征
        value - 该特征的值
    """
    def binSplitDataSet(dataSet, feature, value):
        mat0 = dataSet[np.nonzero(dataSet[:,feature] > value)[0],:]
        mat1 = dataSet[np.nonzero(dataSet[:,feature] <= value)[0],:]
        return mat0, mat1
    
    # 函数说明:生成叶结点
    """
    Parameters:
        dataSet - 数据集合
    """
    def regLeaf(dataSet):
       return np.mean(dataSet[:,-1])
    
    # 函数说明:误差估计函数
    """
    Parameters:
        dataSet - 数据集合
    """
    def regErr(dataSet):
        return np.var(dataSet[:,-1]) * np.shape(dataSet)[0]
    
    # 函数说明:找到数据的最佳二元切分方式函数
    """
    Parameters:
        dataSet - 数据集合
        leafType - 生成叶结点
        regErr - 误差估计函数
        ops - 用户定义的参数构成的元组
    """
    def chooseBestSplit(dataSet, leafType = regLeaf, errType = regErr, ops = (1,4)):
        import types
        #tolS允许的误差下降值,tolN切分的最少样本数
        tolS = ops[0]; tolN = ops[1]
        #如果当前所有值相等,则退出。(根据set的特性)
        if len(set(dataSet[:,-1].T.tolist()[0])) == 1:
            return None, leafType(dataSet)
        #统计数据集合的行m和列n
        m, n = np.shape(dataSet)
        #默认最后一个特征为最佳切分特征,计算其误差估计
        S = errType(dataSet)
        #分别为最佳误差,最佳特征切分的索引值,最佳特征值
        bestS = float('inf'); bestIndex = 0; bestValue = 0
        #遍历所有特征列
        for featIndex in range(n - 1):
            #遍历所有特征值
            for splitVal in set(dataSet[:,featIndex].T.A.tolist()[0]):
                #根据特征和特征值切分数据集
                mat0, mat1 = binSplitDataSet(dataSet, featIndex, splitVal)
                #如果数据少于tolN,则退出
                if (np.shape(mat0)[0] < tolN) or (np.shape(mat1)[0] < tolN): continue
                #计算误差估计
                newS = errType(mat0) + errType(mat1)
                #如果误差估计更小,则更新特征索引值和特征值
                if newS < bestS:
                    bestIndex = featIndex
                    bestValue = splitVal
                    bestS = newS
        #如果误差减少不大则退出
        if (S - bestS) < tolS:
            return None, leafType(dataSet)
        #根据最佳的切分特征和特征值切分数据集合
        mat0, mat1 = binSplitDataSet(dataSet, bestIndex, bestValue)
        #如果切分出的数据集很小则退出
        if (np.shape(mat0)[0] < tolN) or (np.shape(mat1)[0] < tolN):
            return None, leafType(dataSet)
        #返回最佳切分特征和特征值
        return bestIndex, bestValue
    
    if __name__ == '__main__':
        myDat = loadDataSet('ex00.txt')
        myMat = np.mat(myDat)
        feat, val = chooseBestSplit(myMat, regLeaf, regErr, (1, 4))
        print(feat)
        print(val)
    

    在这里插入图片描述
    可以看到,最佳切分特征为第1列特征,最佳切分特征值为0.48813,这个特征值怎么选出来的?

    就是根据误差估计的大小,而选择的这个特征值可以使误差最小化。接下来利用选出的这两个变量创建回归树了,首先根据切分的特征和特征值切分出两个数据集,然后将两个数据集分别用于左子树的构建和右子树的构建,直到无法找到切分的特征为止。代码如下:

    import numpy as np
    
    # 函数说明:加载数据
    """
    Parameters:
        fileName - 文件名
    """
    def loadDataSet(fileName):
        
        dataMat = []
        fr = open(fileName)
        for line in fr.readlines():
            curLine = line.strip().split('	')
            fltLine = list(map(float, curLine))                    #转化为float类型
            dataMat.append(fltLine)
        return dataMat
    
    # 函数说明:根据特征切分数据集合
    """
    Parameters:
        dataSet - 数据集合
        feature - 带切分的特征
        value - 该特征的值
    """
    def binSplitDataSet(dataSet, feature, value):
        mat0 = dataSet[np.nonzero(dataSet[:,feature] > value)[0],:]
        mat1 = dataSet[np.nonzero(dataSet[:,feature] <= value)[0],:]
        return mat0, mat1
    
    # 函数说明:生成叶结点
    """
    Parameters:
        dataSet - 数据集合
    """
    def regLeaf(dataSet):
        return np.mean(dataSet[:,-1])
    
    # 函数说明:误差估计函数
    """
    Parameters:
        dataSet - 数据集合
    """
    def regErr(dataSet):
        return np.var(dataSet[:,-1]) * np.shape(dataSet)[0]
    
    # 函数说明:找到数据的最佳二元切分方式函数
    """
    Parameters:
        dataSet - 数据集合
        leafType - 生成叶结点
        regErr - 误差估计函数
        ops - 用户定义的参数构成的元组
    """
    def chooseBestSplit(dataSet, leafType = regLeaf, errType = regErr, ops = (1,4)):
        import types
        #tolS允许的误差下降值,tolN切分的最少样本数
        tolS = ops[0]; tolN = ops[1]
        #如果当前所有值相等,则退出。(根据set的特性)
        if len(set(dataSet[:,-1].T.tolist()[0])) == 1:
            return None, leafType(dataSet)
        #统计数据集合的行m和列n
        m, n = np.shape(dataSet)
        #默认最后一个特征为最佳切分特征,计算其误差估计
        S = errType(dataSet)
        #分别为最佳误差,最佳特征切分的索引值,最佳特征值
        bestS = float('inf'); bestIndex = 0; bestValue = 0
        #遍历所有特征列
        for featIndex in range(n - 1):
            #遍历所有特征值
            for splitVal in set(dataSet[:,featIndex].T.A.tolist()[0]):
                #根据特征和特征值切分数据集
                mat0, mat1 = binSplitDataSet(dataSet, featIndex, splitVal)
                #如果数据少于tolN,则退出
                if (np.shape(mat0)[0] < tolN) or (np.shape(mat1)[0] < tolN): continue
                #计算误差估计
                newS = errType(mat0) + errType(mat1)
                #如果误差估计更小,则更新特征索引值和特征值
                if newS < bestS:
                    bestIndex = featIndex
                    bestValue = splitVal
                    bestS = newS
        #如果误差减少不大则退出
        if (S - bestS) < tolS:
            return None, leafType(dataSet)
        #根据最佳的切分特征和特征值切分数据集合
        mat0, mat1 = binSplitDataSet(dataSet, bestIndex, bestValue)
        #如果切分出的数据集很小则退出
        if (np.shape(mat0)[0] < tolN) or (np.shape(mat1)[0] < tolN):
            return None, leafType(dataSet)
        #返回最佳切分特征和特征值
        return bestIndex, bestValue
    
    # 函数说明:树构建函数
    """
    Parameters:
        dataSet - 数据集合
        leafType - 建立叶结点的函数
        errType - 误差计算函数
        ops - 包含树构建所有其他参数的元组
    """
    def createTree(dataSet, leafType = regLeaf, errType = regErr, ops = (1, 4)):
        #选择最佳切分特征和特征值
        feat, val = chooseBestSplit(dataSet, leafType, errType, ops)
        #r如果没有特征,则返回特征值
        if feat == None: return val
        #回归树
        retTree = {}
        retTree['spInd'] = feat
        retTree['spVal'] = val
        #分成左数据集和右数据集
        lSet, rSet = binSplitDataSet(dataSet, feat, val)
        #创建左子树和右子树
        retTree['left'] = createTree(lSet, leafType, errType, ops)
        retTree['right'] = createTree(rSet, leafType, errType, ops)
        return retTree  
    
    
    if __name__ == '__main__':
        myDat = loadDataSet('ex00.txt')
        myMat = np.mat(myDat)
        print(createTree(myMat))
    

    在这里插入图片描述
    从上图可知,这棵树只有两个叶结点。

    下面换一个复杂一点的数据集,分段常数数据集。

    import matplotlib.pyplot as plt
    import numpy as np
    
    # 函数说明:加载数据
    """
    Parameters:
    	filename - 文件名
    """
    def loadDataSet(fileName):
        dataMat = []
        fr = open(fileName)
        for line in fr.readlines():
            curLine = line.strip().split('	')
            fltLine = list(map(float, curLine))                     #转化为float类型
            dataMat.append(fltLine)
        return dataMat
    
    # 函数说明:绘制数据集
    """
    Parameters:
        filename - 文件名
    """
    def plotDataSet(filename):
        dataMat = loadDataSet(filename)                              #加载数据集
        n = len(dataMat)                                             #数据个数
        xcord = []; ycord = []                                       #样本点
        for i in range(n):                                                    
            xcord.append(dataMat[i][1]); ycord.append(dataMat[i][2]) #样本点
        fig = plt.figure()
        ax = fig.add_subplot(111)                                    #添加subplot
        ax.scatter(xcord, ycord, s = 20, c = 'blue',alpha = .5)      #绘制样本点
        plt.title('DataSet')                                         #绘制title
        plt.xlabel('X')
        plt.show()
    
    if __name__ == '__main__':
        filename = 'ex0.txt'
        plotDataSet(filename)
    

    在这里插入图片描述

    import numpy as np
    
    # 函数说明:加载数据
    """
    Parameters:
        fileName - 文件名
    """
    def loadDataSet(fileName):
        
        dataMat = []
        fr = open(fileName)
        for line in fr.readlines():
            curLine = line.strip().split('	')
            fltLine = list(map(float, curLine))                    #转化为float类型
            dataMat.append(fltLine)
        return dataMat
    
    # 函数说明:根据特征切分数据集合
    """
    Parameters:
        dataSet - 数据集合
        feature - 带切分的特征
        value - 该特征的值
    """
    def binSplitDataSet(dataSet, feature, value):
        mat0 = dataSet[np.nonzero(dataSet[:,feature] > value)[0],:]
        mat1 = dataSet[np.nonzero(dataSet[:,feature] <= value)[0],:]
        return mat0, mat1
    
    # 函数说明:生成叶结点
    """
    Parameters:
        dataSet - 数据集合
    """
    def regLeaf(dataSet):
        return np.mean(dataSet[:,-1])
    
    # 函数说明:误差估计函数
    """
    Parameters:
        dataSet - 数据集合
    """
    def regErr(dataSet):
        return np.var(dataSet[:,-1]) * np.shape(dataSet)[0]
    
    # 函数说明:找到数据的最佳二元切分方式函数
    """
    Parameters:
        dataSet - 数据集合
        leafType - 生成叶结点
        regErr - 误差估计函数
        ops - 用户定义的参数构成的元组
    """
    def chooseBestSplit(dataSet, leafType = regLeaf, errType = regErr, ops = (1,4)):
        import types
        #tolS允许的误差下降值,tolN切分的最少样本数
        tolS = ops[0]; tolN = ops[1]
        #如果当前所有值相等,则退出。(根据set的特性)
        if len(set(dataSet[:,-1].T.tolist()[0])) == 1:
            return None, leafType(dataSet)
        #统计数据集合的行m和列n
        m, n = np.shape(dataSet)
        #默认最后一个特征为最佳切分特征,计算其误差估计
        S = errType(dataSet)
        #分别为最佳误差,最佳特征切分的索引值,最佳特征值
        bestS = float('inf'); bestIndex = 0; bestValue = 0
        #遍历所有特征列
        for featIndex in range(n - 1):
            #遍历所有特征值
            for splitVal in set(dataSet[:,featIndex].T.A.tolist()[0]):
                #根据特征和特征值切分数据集
                mat0, mat1 = binSplitDataSet(dataSet, featIndex, splitVal)
                #如果数据少于tolN,则退出
                if (np.shape(mat0)[0] < tolN) or (np.shape(mat1)[0] < tolN): continue
                #计算误差估计
                newS = errType(mat0) + errType(mat1)
                #如果误差估计更小,则更新特征索引值和特征值
                if newS < bestS:
                    bestIndex = featIndex
                    bestValue = splitVal
                    bestS = newS
        #如果误差减少不大则退出
        if (S - bestS) < tolS:
            return None, leafType(dataSet)
        #根据最佳的切分特征和特征值切分数据集合
        mat0, mat1 = binSplitDataSet(dataSet, bestIndex, bestValue)
        #如果切分出的数据集很小则退出
        if (np.shape(mat0)[0] < tolN) or (np.shape(mat1)[0] < tolN):
            return None, leafType(dataSet)
        #返回最佳切分特征和特征值
        return bestIndex, bestValue
    
    # 函数说明:树构建函数
    """
    Parameters:
        dataSet - 数据集合
        leafType - 建立叶结点的函数
        errType - 误差计算函数
        ops - 包含树构建所有其他参数的元组
    """
    def createTree(dataSet, leafType = regLeaf, errType = regErr, ops = (1, 4)):
        #选择最佳切分特征和特征值
        feat, val = chooseBestSplit(dataSet, leafType, errType, ops)
        #r如果没有特征,则返回特征值
        if feat == None: return val
        #回归树
        retTree = {}
        retTree['spInd'] = feat
        retTree['spVal'] = val
        #分成左数据集和右数据集
        lSet, rSet = binSplitDataSet(dataSet, feat, val)
        #创建左子树和右子树
        retTree['left'] = createTree(lSet, leafType, errType, ops)
        retTree['right'] = createTree(rSet, leafType, errType, ops)
        return retTree  
    
    
    if __name__ == '__main__':
        myDat = loadDataSet('ex0.txt')
        myMat = np.mat(myDat)
        print(createTree(myMat))
    

    {'spInd': 1, 'spVal': 0.39435, 'left': {'spInd': 1, 'spVal': 0.582002, 'left': {'spInd': 1, 'spVal': 0.797583, 'left': 3.9871631999999999, 'right': 2.9836209534883724}, 'right': 1.980035071428571}, 'right': {'spInd': 1, 'spVal': 0.197834, 'left': 1.0289583666666666, 'right': -0.023838155555555553}}

    可以看到,该数的结构中包含5个叶结点。

    5、树剪枝

    一棵树,如果节点过多,表明该模型可能对数据进行了 过拟合。那么,如何判断是否发生了过拟合?

    通过降低决策树的复杂度来避免过拟合的过程称为 剪枝(pruning)

    • 在函数 chooseBestSplit() 中的提前终止条件,实际上是在进行一种所谓的 预剪枝(prepruning) 操作。
    • 另一种形式的剪枝需要使用测试集和训练集,称作 后剪枝(postpruning)

    1)预剪枝

    上节两个简单实验的结果还是令人满意的,但背后存在一些问题。树构建算法其实对输入的参数 tolStolN 非常敏感,如果使用其他值将不太容易达到这么好的效果。

    import matplotlib.pyplot as plt
    import numpy as np
    
    # 函数说明:加载数据
    """
    Parameters:
        fileName - 文件名
    """
    def loadDataSet(fileName):
    
        dataMat = []
        fr = open(fileName)
        for line in fr.readlines():
            curLine = line.strip().split('	')
            fltLine = list(map(float, curLine))                      #转化为float类型
            dataMat.append(fltLine)
        return dataMat
    
    # 函数说明:绘制数据集
    """
    Parameters:
        filename - 文件名
    """
    def plotDataSet(filename):
        dataMat = loadDataSet(filename)                              #加载数据集
        n = len(dataMat)                                             #数据个数
        xcord = []; ycord = []                                       #样本点
        for i in range(n):                                                    
            xcord.append(dataMat[i][0]); ycord.append(dataMat[i][1]) #样本点
        fig = plt.figure()
        ax = fig.add_subplot(111)                                   #添加subplot
        ax.scatter(xcord, ycord, s = 20, c = 'blue',alpha = .5)     #绘制样本点
        plt.title('DataSet')                                        #绘制title
        plt.xlabel('X')
        plt.show()
    
    
    if __name__ == '__main__':
        filename = 'ex2.txt'
        plotDataSet(filename)
    

    在这里插入图片描述
    可以看到,对于这个数据集与第一个数据集很相似,但是区别在于y的数量级差100倍。下图是第一个数据集的结果:
    在这里插入图片描述
    可以看得出数据分布相似,因此构建出的树应该也是只有两个叶结点。但是使用默认 tolStolN 参数创建树,会发现运行结果并不是预想的那样。

    import numpy as np
    
    # 函数说明:加载数据
    """
    Parameters:
        fileName - 文件名
    """
    def loadDataSet(fileName):
        dataMat = []
        fr = open(fileName)
        for line in fr.readlines():
            curLine = line.strip().split('	')
            fltLine = list(map(float, curLine))  # 转化为float类型
            dataMat.append(fltLine)
        return dataMat
    
    # 函数说明:根据特征切分数据集合
    """
    Parameters:
        dataSet - 数据集合
        feature - 带切分的特征
        value - 该特征的值
    """
    def binSplitDataSet(dataSet, feature, value):
        mat0 = dataSet[np.nonzero(dataSet[:, feature] > value)[0], :]
        mat1 = dataSet[np.nonzero(dataSet[:, feature] <= value)[0], :]
        return mat0, mat1
    
    # 函数说明:生成叶结点
    """
    Parameters:
        dataSet - 数据集合
    """
    def regLeaf(dataSet):
        return np.mean(dataSet[:, -1])
    
    # 函数说明:误差估计函数
    """
    Parameters:
        dataSet - 数据集合
    """
    def regErr(dataSet):
        return np.var(dataSet[:, -1]) * np.shape(dataSet)[0]
    
    # 函数说明:找到数据的最佳二元切分方式函数
    """
    Parameters:
        dataSet - 数据集合
        leafType - 生成叶结点
        regErr - 误差估计函数
        ops - 用户定义的参数构成的元组
    """
    def chooseBestSplit(dataSet, leafType=regLeaf, errType=regErr, ops=(1, 4)):
        import types
        # tolS允许的误差下降值,tolN切分的最少样本数
        tolS = ops[0];
        tolN = ops[1]
        # 如果当前所有值相等,则退出。(根据set的特性)
        if len(set(dataSet[:, -1].T.tolist()[0])) == 1:
            return None, leafType(dataSet)
        # 统计数据集合的行m和列n
        m, n = np.shape(dataSet)
        # 默认最后一个特征为最佳切分特征,计算其误差估计
        S = errType(dataSet)
        # 分别为最佳误差,最佳特征切分的索引值,最佳特征值
        bestS = float('inf');
        bestIndex = 0;
        bestValue = 0
        # 遍历所有特征列
        for featIndex in range(n - 1):
            # 遍历所有特征值
            for splitVal in set(dataSet[:, featIndex].T.A.tolist()[0]):
                # 根据特征和特征值切分数据集
                mat0, mat1 = binSplitDataSet(dataSet, featIndex, splitVal)
                # 如果数据少于tolN,则退出
                if (np.shape(mat0)[0] < tolN) or (np.shape(mat1)[0] < tolN): continue
                # 计算误差估计
                newS = errType(mat0) + errType(mat1)
                # 如果误差估计更小,则更新特征索引值和特征值
                if newS < bestS:
                    bestIndex = featIndex
                    bestValue = splitVal
                    bestS = newS
        # 如果误差减少不大则退出
        if (S - bestS) < tolS:
            return None, leafType(dataSet)
        # 根据最佳的切分特征和特征值切分数据集合
        mat0, mat1 = binSplitDataSet(dataSet, bestIndex, bestValue)
        # 如果切分出的数据集很小则退出
        if (np.shape(mat0)[0] < tolN) or (np.shape(mat1)[0] < tolN):
            return None, leafType(dataSet)
        # 返回最佳切分特征和特征值
        return bestIndex, bestValue
    
    # 函数说明:树构建函数
    """
    Parameters:
        dataSet - 数据集合
        leafType - 建立叶结点的函数
        errType - 误差计算函数
        ops - 包含树构建所有其他参数的元组
    """
    def createTree(dataSet, leafType=regLeaf, errType=regErr, ops=(1, 4)):
        # 选择最佳切分特征和特征值
        feat, val = chooseBestSplit(dataSet, leafType, errType, ops)
        # r如果没有特征,则返回特征值
        if feat == None: return val
        # 回归树
        retTree = {}
        retTree['spInd'] = feat
        retTree['spVal'] = val
        # 分成左数据集和右数据集
        lSet, rSet = binSplitDataSet(dataSet, feat, val)
        # 创建左子树和右子树
        retTree['left'] = createTree(lSet, leafType, errType, ops)
        retTree['right'] = createTree(rSet, leafType, errType, ops)
        return retTree
    
    
    if __name__ == '__main__':
        myDat = loadDataSet('ex2.txt')
        myMat = np.mat(myDat)
        print(createTree(myMat))
    

    {'spInd': 0, 'spVal': 0.499171, 'left': {'spInd': 0, 'spVal': 0.729397, 'left': {'spInd': 0, 'spVal': 0.952833, 'left': {'spInd': 0, 'spVal': 0.958512, 'left': 105.24862350000001, 'right': 112.42895575000001}, 'right': {'spInd': 0, 'spVal': 0.759504, 'left': {'spInd': 0, 'spVal': 0.790312, 'left': {'spInd': 0, 'spVal': 0.833026, 'left': {'spInd': 0, 'spVal': 0.944221, 'left': 87.310387500000004, 'right': {'spInd': 0, 'spVal': 0.85497, 'left': {'spInd': 0, 'spVal': 0.910975, 'left': 96.452866999999998, 'right': {'spInd': 0, 'spVal': 0.892999, 'left': 104.82540899999999, 'right': {'spInd': 0, 'spVal': 0.872883, 'left': 95.181792999999999, 'right': 102.25234449999999}}}, 'right': 95.275843166666661}}, 'right': {'spInd': 0, 'spVal': 0.811602, 'left': 81.110151999999999, 'right': 88.784498800000009}}, 'right': 102.35780185714285}, 'right': 78.085643250000004}}, 'right': {'spInd': 0, 'spVal': 0.640515, 'left': {'spInd': 0, 'spVal': 0.666452, 'left': {'spInd': 0, 'spVal': 0.706961, 'left': 114.554706, 'right': {'spInd': 0, 'spVal': 0.698472, 'left': 104.82495374999999, 'right': 108.92921799999999}}, 'right': 114.15162428571431}, 'right': {'spInd': 0, 'spVal': 0.613004, 'left': 93.673449714285724, 'right': {'spInd': 0, 'spVal': 0.582311, 'left': 123.2101316, 'right': {'spInd': 0, 'spVal': 0.553797, 'left': 97.200180249999988, 'right': {'spInd': 0, 'spVal': 0.51915, 'left': {'spInd': 0, 'spVal': 0.543843, 'left': 109.38961049999999, 'right': 110.979946}, 'right': 101.73699325000001}}}}}}, 'right': {'spInd': 0, 'spVal': 0.457563, 'left': {'spInd': 0, 'spVal': 0.467383, 'left': 12.50675925, 'right': 3.4331330000000007}, 'right': {'spInd': 0, 'spVal': 0.126833, 'left': {'spInd': 0, 'spVal': 0.373501, 'left': {'spInd': 0, 'spVal': 0.437652, 'left': -12.558604833333334, 'right': {'spInd': 0, 'spVal': 0.412516, 'left': 14.38417875, 'right': {'spInd': 0, 'spVal': 0.385021, 'left': -0.89235549999999952, 'right': 3.6584772500000016}}}, 'right': {'spInd': 0, 'spVal': 0.335182, 'left': {'spInd': 0, 'spVal': 0.350725, 'left': -15.085111749999999, 'right': -22.693879600000002}, 'right': {'spInd': 0, 'spVal': 0.324274, 'left': 15.059290750000001, 'right': {'spInd': 0, 'spVal': 0.297107, 'left': -19.994155200000002, 'right': {'spInd': 0, 'spVal': 0.166765, 'left': {'spInd': 0, 'spVal': 0.202161, 'left': {'spInd': 0, 'spVal': 0.217214, 'left': {'spInd': 0, 'spVal': 0.228473, 'left': {'spInd': 0, 'spVal': 0.25807, 'left': 0.40377471428571476, 'right': -13.070501}, 'right': 6.770429}, 'right': -11.822278500000001}, 'right': 3.4496025000000001}, 'right': {'spInd': 0, 'spVal': 0.156067, 'left': -12.107972500000001, 'right': -6.2479000000000013}}}}}}, 'right': {'spInd': 0, 'spVal': 0.084661, 'left': 6.5098432857142843, 'right': {'spInd': 0, 'spVal': 0.044737, 'left': -2.5443927142857148, 'right': 4.0916259999999998}}}}}

    可以看到,构建出的树有很多叶结点。产生这个现象的原因在于,停止条件 tolS 对误差的数量级十分敏感。

    如果在选项中花费时间并对上述误差容忍度取平均值,或许也能得到仅有两个叶结点组成的树:

    if __name__ == '__main__':
        myDat = loadDataSet('ex2.txt')
        myMat = np.mat(myDat)
        print(createTree(myMat, ops=(10000, 4)))
    

    在这里插入图片描述
    可以看到,将参数 tolS 修改为10000后,构建的树就是只有两个叶结点。然而通过不断修改停止条件来得到合理结果并不是很好的办法。事实上,我们常常甚至不确定到底需要寻找什么样的结果。因为对于一个很多维度的数据集,你也不知道构建的树需要多少个叶结点。可见,预剪枝有很大的局限性。

    2)后剪枝

    使用后剪枝方法需要将数据集分成测试集和训练集。

    • 首先指定参数,使得构建出的树足够大、足够复杂,便于剪枝。
    • 接下来从上而下找到叶节点,用测试集来判断将这些叶节点合并是否能降低测试误差,如果是的话就合并。
    import matplotlib.pyplot as plt
    import numpy as np
    
    # 函数说明:加载数据
    """
    Parameters:
        fileName - 文件名
    """
    def loadDataSet(fileName):
        dataMat = []
        fr = open(fileName)
        for line in fr.readlines():
            curLine = line.strip().split('	')
            fltLine = list(map(float, curLine))                    #转化为float类型
            dataMat.append(fltLine)
        return dataMat
    
    # 函数说明:绘制数据集
    """
    Parameters:
        filename - 文件名
    """
    def plotDataSet(filename):
        dataMat = loadDataSet(filename)                              #加载数据集
        n = len(dataMat)                                             #数据个数
        xcord = []; ycord = []                                       #样本点
        for i in range(n):
            xcord.append(dataMat[i][0]); ycord.append(dataMat[i][1]) #样本点
        fig = plt.figure()
        ax = fig.add_subplot(111)                                    #添加subplot
        ax.scatter(xcord, ycord, s = 20, c = 'blue',alpha = .5)      #绘制样本点
        plt.title('DataSet')                                         #绘制title
        plt.xlabel('X')
        plt.show()
    
    # 函数说明:根据特征切分数据集合
    """
    Parameters:
        dataSet - 数据集合
        feature - 带切分的特征
        value - 该特征的值
    """
    def binSplitDataSet(dataSet, feature, value):
        mat0 = dataSet[np.nonzero(dataSet[:,feature] > value)[0],:]
        mat1 = dataSet[np.nonzero(dataSet[:,feature] <= value)[0],:]
        return mat0, mat1
    
    # 函数说明:生成叶结点
    """
    Parameters:
        dataSet - 数据集合
    """
    def regLeaf(dataSet):
        return np.mean(dataSet[:,-1])
    
    # 函数说明:误差估计函数
    """
    Parameters:
        dataSet - 数据集合
    """
    def regErr(dataSet):
        return np.var(dataSet[:,-1]) * np.shape(dataSet)[0]
    
    # 函数说明:找到数据的最佳二元切分方式函数
    """
    Parameters:
        dataSet - 数据集合
        leafType - 生成叶结点
        regErr - 误差估计函数
        ops - 用户定义的参数构成的元组
    """
    def chooseBestSplit(dataSet, leafType = regLeaf, errType = regErr, ops = (1,4)):
        import types
        #tolS允许的误差下降值,tolN切分的最少样本数
        tolS = ops[0]; tolN = ops[1]
        #如果当前所有值相等,则退出。(根据set的特性)
        if len(set(dataSet[:,-1].T.tolist()[0])) == 1:
            return None, leafType(dataSet)
        #统计数据集合的行m和列n
        m, n = np.shape(dataSet)
        #默认最后一个特征为最佳切分特征,计算其误差估计
        S = errType(dataSet)
        #分别为最佳误差,最佳特征切分的索引值,最佳特征值
        bestS = float('inf'); bestIndex = 0; bestValue = 0
        #遍历所有特征列
        for featIndex in range(n - 1):
            #遍历所有特征值
            for splitVal in set(dataSet[:,featIndex].T.A.tolist()[0]):
                #根据特征和特征值切分数据集
                mat0, mat1 = binSplitDataSet(dataSet, featIndex, splitVal)
                #如果数据少于tolN,则退出
                if (np.shape(mat0)[0] < tolN) or (np.shape(mat1)[0] < tolN): continue
                #计算误差估计
                newS = errType(mat0) + errType(mat1)
                #如果误差估计更小,则更新特征索引值和特征值
                if newS < bestS:
                    bestIndex = featIndex
                    bestValue = splitVal
                    bestS = newS
        #如果误差减少不大则退出
        if (S - bestS) < tolS:
            return None, leafType(dataSet)
        #根据最佳的切分特征和特征值切分数据集合
        mat0, mat1 = binSplitDataSet(dataSet, bestIndex, bestValue)
        #如果切分出的数据集很小则退出
        if (np.shape(mat0)[0] < tolN) or (np.shape(mat1)[0] < tolN):
            return None, leafType(dataSet)
        #返回最佳切分特征和特征值
        return bestIndex, bestValue
    
    # 函数说明:树构建函数
    """
    Parameters:
        dataSet - 数据集合
        leafType - 建立叶结点的函数
        errType - 误差计算函数
        ops - 包含树构建所有其他参数的元组
    """
    def createTree(dataSet, leafType = regLeaf, errType = regErr, ops = (1, 4)):
        #选择最佳切分特征和特征值
        feat, val = chooseBestSplit(dataSet, leafType, errType, ops)
        #r如果没有特征,则返回特征值
        if feat == None: return val
        #回归树
        retTree = {}
        retTree['spInd'] = feat
        retTree['spVal'] = val
        #分成左数据集和右数据集
        lSet, rSet = binSplitDataSet(dataSet, feat, val)
        #创建左子树和右子树
        retTree['left'] = createTree(lSet, leafType, errType, ops)
        retTree['right'] = createTree(rSet, leafType, errType, ops)
        return retTree
    
    # 函数说明:判断测试输入变量是否是一棵树
    """
    Parameters:
        obj - 测试对象
    """
    def isTree(obj):
        import types
        return (type(obj).__name__ == 'dict')
    
    # 函数说明:对树进行塌陷处理(即返回树平均值)
    """
    Parameters:
        tree - 树
    """
    def getMean(tree):
        if isTree(tree['right']): tree['right'] = getMean(tree['right'])
        if isTree(tree['left']): tree['left'] = getMean(tree['left'])
        return (tree['left'] + tree['right']) / 2.0
    
    # 函数说明:后剪枝
    """
    Parameters:
        tree - 树
        test - 测试集
    """
    def prune(tree, testData):
        #如果测试集为空,则对树进行塌陷处理
        if np.shape(testData)[0] == 0: return getMean(tree)
        #如果有左子树或者右子树,则切分数据集
        if (isTree(tree['right']) or isTree(tree['left'])):
            lSet, rSet = binSplitDataSet(testData, tree['spInd'], tree['spVal'])
        #处理左子树(剪枝)
        if isTree(tree['left']): tree['left'] = prune(tree['left'], lSet)
        #处理右子树(剪枝)
        if isTree(tree['right']): tree['right'] =  prune(tree['right'], rSet)
        #如果当前结点的左右结点为叶结点
        if not isTree(tree['left']) and not isTree(tree['right']):
            lSet, rSet = binSplitDataSet(testData, tree['spInd'], tree['spVal'])
            #计算没有合并的误差
            errorNoMerge = np.sum(np.power(lSet[:,-1] - tree['left'],2)) + np.sum(np.power(rSet[:,-1] - tree['right'],2))
            #计算合并的均值
            treeMean = (tree['left'] + tree['right']) / 2.0
            #计算合并的误差
            errorMerge = np.sum(np.power(testData[:,-1] - treeMean, 2))
            #如果合并的误差小于没有合并的误差,则合并
            if errorMerge < errorNoMerge:
                return treeMean
            else: return tree
        else: return tree
    
    if __name__ == '__main__':
        train_filename = 'ex2.txt'
        train_Data = loadDataSet(train_filename)
        train_Mat = np.mat(train_Data)
        tree = createTree(train_Mat)
        print(tree)
        test_filename = 'ex2test.txt'
        test_Data = loadDataSet(test_filename)
        test_Mat = np.mat(test_Data)
        print(prune(tree, test_Mat))
    

    C:UsersAdministratAnaconda3python.exe E:/机器学习实战/机器学习/机器学习实战/Ch09/111111111.py {'spInd': 0, 'spVal': 0.499171, 'left': {'spInd': 0, 'spVal': 0.729397, 'left': {'spInd': 0, 'spVal': 0.952833, 'left': {'spInd': 0, 'spVal': 0.958512, 'left': 105.24862350000001, 'right': 112.42895575000001}, 'right': {'spInd': 0, 'spVal': 0.759504, 'left': {'spInd': 0, 'spVal': 0.790312, 'left': {'spInd': 0, 'spVal': 0.833026, 'left': {'spInd': 0, 'spVal': 0.944221, 'left': 87.310387500000004, 'right': {'spInd': 0, 'spVal': 0.85497, 'left': {'spInd': 0, 'spVal': 0.910975, 'left': 96.452866999999998, 'right': {'spInd': 0, 'spVal': 0.892999, 'left': 104.82540899999999, 'right': {'spInd': 0, 'spVal': 0.872883, 'left': 95.181792999999999, 'right': 102.25234449999999}}}, 'right': 95.275843166666661}}, 'right': {'spInd': 0, 'spVal': 0.811602, 'left': 81.110151999999999, 'right': 88.784498800000009}}, 'right': 102.35780185714285}, 'right': 78.085643250000004}}, 'right': {'spInd': 0, 'spVal': 0.640515, 'left': {'spInd': 0, 'spVal': 0.666452, 'left': {'spInd': 0, 'spVal': 0.706961, 'left': 114.554706, 'right': {'spInd': 0, 'spVal': 0.698472, 'left': 104.82495374999999, 'right': 108.92921799999999}}, 'right': 114.15162428571431}, 'right': {'spInd': 0, 'spVal': 0.613004, 'left': 93.673449714285724, 'right': {'spInd': 0, 'spVal': 0.582311, 'left': 123.2101316, 'right': {'spInd': 0, 'spVal': 0.553797, 'left': 97.200180249999988, 'right': {'spInd': 0, 'spVal': 0.51915, 'left': {'spInd': 0, 'spVal': 0.543843, 'left': 109.38961049999999, 'right': 110.979946}, 'right': 101.73699325000001}}}}}}, 'right': {'spInd': 0, 'spVal': 0.457563, 'left': {'spInd': 0, 'spVal': 0.467383, 'left': 12.50675925, 'right': 3.4331330000000007}, 'right': {'spInd': 0, 'spVal': 0.126833, 'left': {'spInd': 0, 'spVal': 0.373501, 'left': {'spInd': 0, 'spVal': 0.437652, 'left': -12.558604833333334, 'right': {'spInd': 0, 'spVal': 0.412516, 'left': 14.38417875, 'right': {'spInd': 0, 'spVal': 0.385021, 'left': -0.89235549999999952, 'right': 3.6584772500000016}}}, 'right': {'spInd': 0, 'spVal': 0.335182, 'left': {'spInd': 0, 'spVal': 0.350725, 'left': -15.085111749999999, 'right': -22.693879600000002}, 'right': {'spInd': 0, 'spVal': 0.324274, 'left': 15.059290750000001, 'right': {'spInd': 0, 'spVal': 0.297107, 'left': -19.994155200000002, 'right': {'spInd': 0, 'spVal': 0.166765, 'left': {'spInd': 0, 'spVal': 0.202161, 'left': {'spInd': 0, 'spVal': 0.217214, 'left': {'spInd': 0, 'spVal': 0.228473, 'left': {'spInd': 0, 'spVal': 0.25807, 'left': 0.40377471428571476, 'right': -13.070501}, 'right': 6.770429}, 'right': -11.822278500000001}, 'right': 3.4496025000000001}, 'right': {'spInd': 0, 'spVal': 0.156067, 'left': -12.107972500000001, 'right': -6.2479000000000013}}}}}}, 'right': {'spInd': 0, 'spVal': 0.084661, 'left': 6.5098432857142843, 'right': {'spInd': 0, 'spVal': 0.044737, 'left': -2.5443927142857148, 'right': 4.0916259999999998}}}}}


    {'spInd': 0, 'spVal': 0.499171, 'left': {'spInd': 0, 'spVal': 0.729397, 'left': {'spInd': 0, 'spVal': 0.952833, 'left': {'spInd': 0, 'spVal': 0.958512, 'left': 105.24862350000001, 'right': 112.42895575000001}, 'right': {'spInd': 0, 'spVal': 0.759504, 'left': {'spInd': 0, 'spVal': 0.790312, 'left': {'spInd': 0, 'spVal': 0.833026, 'left': {'spInd': 0, 'spVal': 0.944221, 'left': 87.310387500000004, 'right': {'spInd': 0, 'spVal': 0.85497, 'left': {'spInd': 0, 'spVal': 0.910975, 'left': 96.452866999999998, 'right': {'spInd': 0, 'spVal': 0.892999, 'left': 104.82540899999999, 'right': {'spInd': 0, 'spVal': 0.872883, 'left': 95.181792999999999, 'right': 102.25234449999999}}}, 'right': 95.275843166666661}}, 'right': {'spInd': 0, 'spVal': 0.811602, 'left': 81.110151999999999, 'right': 88.784498800000009}}, 'right': 102.35780185714285}, 'right': 78.085643250000004}}, 'right': {'spInd': 0, 'spVal': 0.640515, 'left': {'spInd': 0, 'spVal': 0.666452, 'left': {'spInd': 0, 'spVal': 0.706961, 'left': 114.554706, 'right': 106.87708587499999}, 'right': 114.15162428571431}, 'right': {'spInd': 0, 'spVal': 0.613004, 'left': 93.673449714285724, 'right': {'spInd': 0, 'spVal': 0.582311, 'left': 123.2101316, 'right': 101.580533}}}}, 'right': {'spInd': 0, 'spVal': 0.457563, 'left': 7.9699461249999999, 'right': {'spInd': 0, 'spVal': 0.126833, 'left': {'spInd': 0, 'spVal': 0.373501, 'left': {'spInd': 0, 'spVal': 0.437652, 'left': -12.558604833333334, 'right': {'spInd': 0, 'spVal': 0.412516, 'left': 14.38417875, 'right': 1.3830608750000011}}, 'right': {'spInd': 0, 'spVal': 0.335182, 'left': {'spInd': 0, 'spVal': 0.350725, 'left': -15.085111749999999, 'right': -22.693879600000002}, 'right': {'spInd': 0, 'spVal': 0.324274, 'left': 15.059290750000001, 'right': {'spInd': 0, 'spVal': 0.297107, 'left': -19.994155200000002, 'right': {'spInd': 0, 'spVal': 0.166765, 'left': {'spInd': 0, 'spVal': 0.202161, 'left': -5.801872785714286, 'right': 3.4496025000000001}, 'right': {'spInd': 0, 'spVal': 0.156067, 'left': -12.107972500000001, 'right': -6.2479000000000013}}}}}}, 'right': {'spInd': 0, 'spVal': 0.084661, 'left': 6.5098432857142843, 'right': {'spInd': 0, 'spVal': 0.044737, 'left': -2.5443927142857148, 'right': 4.0916259999999998}}}}}

    现在使用 ex2.txt 训练回归树,然后利用 ex2test.txt 对回归树进行剪枝。可以看到,树的大量结点已经被剪枝掉了,但没有像预期的那样剪枝成两部分,这说明后剪枝可能不如预剪枝有效。

    一般地,为了寻求最佳模型可以同时使用两种剪枝技术。

    6、模型树

    用树来对数据建模,除了把叶节点简单地设定为常数值之外,还有一种方法是把叶节点设定为分段线性函数,这里所谓的分段线性(piecewise linear)是指模型由多个线性片段组成。使用两条直线拟合是否比使用一组常数来建模好呢 ?答案显而易见de。可以把数据集里的一部分数据(0.0~0.3)以某个线性模型建模,而另一部分数据(0.3~1.0)则以另一个线性模型建模,因此说采用了所谓的分段线性模型。

    决策树相比于其他机器学习算法的优势之一在于结果更易理解。很显然,两条直线比很多节点组成一棵大树更容易解释。模型树的可解释性是它优于回归树的特点之一。另外,模型树也具有更高的预测准确度。

    import matplotlib.pyplot as plt
    import numpy as np
    
    # 函数说明:加载数据
    """
    Parameters:
        fileName - 文件名
    """
    def loadDataSet(fileName):
    
        dataMat = []
        fr = open(fileName)
        for line in fr.readlines():
            curLine = line.strip().split('	')
            fltLine = list(map(float, curLine))                      #转化为float类型
            dataMat.append(fltLine)
        return dataMat
    
    # 函数说明:绘制数据集
    """
    Parameters:
        filename - 文件名
    """
    def plotDataSet(filename):
        dataMat = loadDataSet(filename)                              #加载数据集
        n = len(dataMat)                                             #数据个数
        xcord = []; ycord = []                                       #样本点
        for i in range(n):
            xcord.append(dataMat[i][0]); ycord.append(dataMat[i][1]) #样本点
        fig = plt.figure()
        ax = fig.add_subplot(111)                                   #添加subplot
        ax.scatter(xcord, ycord, s = 20, c = 'blue',alpha = .5)     #绘制样本点
        plt.title('DataSet')                                        #绘制title
        plt.xlabel('X')
        plt.show()
    
    
    if __name__ == '__main__':
        filename = 'exp2.txt'
        plotDataSet(filename)
    

    在这里插入图片描述

    import numpy as np
    
    # 函数说明:加载数据
    """
    Parameters:
        fileName - 文件名
    """
    def loadDataSet(fileName):
        dataMat = []
        fr = open(fileName)
        for line in fr.readlines():
            curLine = line.strip().split('	')
            fltLine = list(map(float, curLine))  # 转化为float类型
            dataMat.append(fltLine)
        return dataMat
    
    # 函数说明:根据特征切分数据集合
    """
    Parameters:
        dataSet - 数据集合
        feature - 带切分的特征
        value - 该特征的值
    """
    def binSplitDataSet(dataSet, feature, value):
        mat0 = dataSet[np.nonzero(dataSet[:, feature] > value)[0], :]
        mat1 = dataSet[np.nonzero(dataSet[:, feature] <= value)[0], :]
        return mat0, mat1
    
    # 函数说明:生成叶结点
    """
    Parameters:
        dataSet - 数据集合
    """
    def regLeaf(dataSet):
        return np.mean(dataSet[:, -1])
    
    # 函数说明:误差估计函数
    """
    Parameters:
        dataSet - 数据集合
    """
    def regErr(dataSet):
        return np.var(dataSet[:, -1]) * np.shape(dataSet)[0]
    
    # 函数说明:找到数据的最佳二元切分方式函数
    """
    Parameters:
        dataSet - 数据集合
        leafType - 生成叶结点
        regErr - 误差估计函数
        ops - 用户定义的参数构成的元组
    """
    def chooseBestSplit(dataSet, leafType=regLeaf, errType=regErr, ops=(1, 4)):
        import types
        # tolS允许的误差下降值,tolN切分的最少样本数
        tolS = ops[0];
        tolN = ops[1]
        # 如果当前所有值相等,则退出。(根据set的特性)
        if len(set(dataSet[:, -1].T.tolist()[0])) == 1:
            return None, leafType(dataSet)
        # 统计数据集合的行m和列n
        m, n = np.shape(dataSet)
        # 默认最后一个特征为最佳切分特征,计算其误差估计
        S = errType(dataSet)
        # 分别为最佳误差,最佳特征切分的索引值,最佳特征值
        bestS = float('inf');
        bestIndex = 0;
        bestValue = 0
        # 遍历所有特征列
        for featIndex in range(n - 1):
            # 遍历所有特征值
            for splitVal in set(dataSet[:, featIndex].T.A.tolist()[0]):
                # 根据特征和特征值切分数据集
                mat0, mat1 = binSplitDataSet(dataSet, featIndex, splitVal)
                # 如果数据少于tolN,则退出
                if (np.shape(mat0)[0] < tolN) or (np.shape(mat1)[0] < tolN): continue
                # 计算误差估计
                newS = errType(mat0) + errType(mat1)
                # 如果误差估计更小,则更新特征索引值和特征值
                if newS < bestS:
                    bestIndex = featIndex
                    bestValue = splitVal
                    bestS = newS
        # 如果误差减少不大则退出
        if (S - bestS) < tolS:
            return None, leafType(dataSet)
        # 根据最佳的切分特征和特征值切分数据集合
        mat0, mat1 = binSplitDataSet(dataSet, bestIndex, bestValue)
        # 如果切分出的数据集很小则退出
        if (np.shape(mat0)[0] < tolN) or (np.shape(mat1)[0] < tolN):
            return None, leafType(dataSet)
        # 返回最佳切分特征和特征值
        return bestIndex, bestValue
    
    # 函数说明:树构建函数
    """
    Parameters:
        dataSet - 数据集合
        leafType - 建立叶结点的函数
        errType - 误差计算函数
        ops - 包含树构建所有其他参数的元组
    """
    def createTree(dataSet, leafType=regLeaf, errType=regErr, ops=(1, 4)):
        # 选择最佳切分特征和特征值
        feat, val = chooseBestSplit(dataSet, leafType, errType, ops)
        # r如果没有特征,则返回特征值
        if feat == None: return val
        # 回归树
        retTree = {}
        retTree['spInd'] = feat
        retTree['spVal'] = val
        # 分成左数据集和右数据集
        lSet, rSet = binSplitDataSet(dataSet, feat, val)
        # 创建左子树和右子树
        retTree['left'] = createTree(lSet, leafType, errType, ops)
        retTree['right'] = createTree(rSet, leafType, errType, ops)
        return retTree
    
    def linearSolve(dataSet):   #helper function used in two places
        m,n = np.shape(dataSet)
        X = np.mat(np.ones((m,n))); Y = np.mat(np.ones((m,1)))#create a copy of data with 1 in 0th postion
        X[:,1:n] = dataSet[:,0:n-1]; Y = dataSet[:,-1]#and strip out Y
        xTx = X.T*X
        if np.linalg.det(xTx) == 0.0:
            raise NameError('This matrix is singular, cannot do inverse,
    
            try increasing the second value of ops')
        ws = xTx.I * (X.T * Y)
        return ws,X,Y
    
    def modelLeaf(dataSet):#create linear model and return coeficients
        ws,X,Y = linearSolve(dataSet)
        return ws
    
    def modelErr(dataSet):
        ws,X,Y = linearSolve(dataSet)
        yHat = X * ws
        return np.sum(np.power(Y - yHat,2))
    
    
    if __name__ == '__main__':
        myDat = loadDataSet('exp2.txt')
        myMat = np.mat(myDat)
        print(createTree(myMat, modelLeaf, modelErr,(1,10)))
    

    在这里插入图片描述
    可以看到,该代码以 0.285477 为界创建了两个模型。

    7、示例:树回归与标准回归的比较

    介绍了模型树、回归树和一般的回归方法,下面测试一下哪个模型最好。

    import matplotlib.pyplot as plt
    import numpy as np
    
    # 函数说明:加载数据
    """
    Parameters:
        fileName - 文件名
    """
    def loadDataSet(fileName):
    
        dataMat = []
        fr = open(fileName)
        for line in fr.readlines():
            curLine = line.strip().split('	')
            fltLine = list(map(float, curLine))                      #转化为float类型
            dataMat.append(fltLine)
        return dataMat
    
    # 函数说明:绘制数据集
    """
    Parameters:
        filename - 文件名
    """
    def plotDataSet(filename):
        dataMat = loadDataSet(filename)                              #加载数据集
        n = len(dataMat)                                             #数据个数
        xcord = []; ycord = []                                       #样本点
        for i in range(n):
            xcord.append(dataMat[i][0]); ycord.append(dataMat[i][1]) #样本点
        fig = plt.figure()
        ax = fig.add_subplot(111)                                   #添加subplot
        ax.scatter(xcord, ycord, s = 20, c = 'blue',alpha = .5)     #绘制样本点
        plt.title('DataSet')                                        #绘制title
        plt.xlabel('X')
        plt.show()
    
    
    if __name__ == '__main__':
        filename = 'bikeSpeedVsIq_train.txt'
        plotDataSet(filename)
    

    在这里插入图片描述
    上图的数据是从多个骑自行车的人那里收集得到的,图中给出骑自行车的速度和人的智商之间的关系。

    接下来,利用该数据创建一棵回归树:

    import matplotlib.pyplot as plt
    import regTrees
    import numpy as np
    
    # 函数说明:加载数据
    """
    Parameters:
        fileName - 文件名
    """
    def loadDataSet(fileName):
        dataMat = []
        fr = open(fileName)
        for line in fr.readlines():
            curLine = line.strip().split('	')
            fltLine = list(map(float, curLine))  # 转化为float类型
            dataMat.append(fltLine)
        return dataMat
    
    # 函数说明:根据特征切分数据集合
    """
    Parameters:
        dataSet - 数据集合
        feature - 带切分的特征
        value - 该特征的值
    """
    def binSplitDataSet(dataSet, feature, value):
        mat0 = dataSet[np.nonzero(dataSet[:, feature] > value)[0], :]
        mat1 = dataSet[np.nonzero(dataSet[:, feature] <= value)[0], :]
        return mat0, mat1
    
    # 函数说明:生成叶结点
    """
    Parameters:
        dataSet - 数据集合
    """
    def regLeaf(dataSet):
        return np.mean(dataSet[:, -1])
    
    # 函数说明:误差估计函数
    """
    Parameters:
        dataSet - 数据集合
    """
    def regErr(dataSet):
        return np.var(dataSet[:, -1]) * np.shape(dataSet)[0]
    
    # 函数说明:找到数据的最佳二元切分方式函数
    """
    Parameters:
        dataSet - 数据集合
        leafType - 生成叶结点
        regErr - 误差估计函数
        ops - 用户定义的参数构成的元组
    """
    def chooseBestSplit(dataSet, leafType=regLeaf, errType=regErr, ops=(1, 4)):
        import types
        # tolS允许的误差下降值,tolN切分的最少样本数
        tolS = ops[0];
        tolN = ops[1]
        # 如果当前所有值相等,则退出。(根据set的特性)
        if len(set(dataSet[:, -1].T.tolist()[0])) == 1:
            return None, leafType(dataSet)
        # 统计数据集合的行m和列n
        m, n = np.shape(dataSet)
        # 默认最后一个特征为最佳切分特征,计算其误差估计
        S = errType(dataSet)
        # 分别为最佳误差,最佳特征切分的索引值,最佳特征值
        bestS = float('inf');
        bestIndex = 0;
        bestValue = 0
        # 遍历所有特征列
        for featIndex in range(n - 1):
            # 遍历所有特征值
            for splitVal in set(dataSet[:, featIndex].T.A.tolist()[0]):
                # 根据特征和特征值切分数据集
                mat0, mat1 = binSplitDataSet(dataSet, featIndex, splitVal)
                # 如果数据少于tolN,则退出
                if (np.shape(mat0)[0] < tolN) or (np.shape(mat1)[0] < tolN): continue
                # 计算误差估计
                newS = errType(mat0) + errType(mat1)
                # 如果误差估计更小,则更新特征索引值和特征值
                if newS < bestS:
                    bestIndex = featIndex
                    bestValue = splitVal
                    bestS = newS
        # 如果误差减少不大则退出
        if (S - bestS) < tolS:
            return None, leafType(dataSet)
        # 根据最佳的切分特征和特征值切分数据集合
        mat0, mat1 = binSplitDataSet(dataSet, bestIndex, bestValue)
        # 如果切分出的数据集很小则退出
        if (np.shape(mat0)[0] < tolN) or (np.shape(mat1)[0] < tolN):
            return None, leafType(dataSet)
        # 返回最佳切分特征和特征值
        return bestIndex, bestValue
    
    # 函数说明:树构建函数
    """
    Parameters:
        dataSet - 数据集合
        leafType - 建立叶结点的函数
        errType - 误差计算函数
        ops - 包含树构建所有其他参数的元组
    """
    def createTree(dataSet, leafType=regLeaf, errType=regErr, ops=(1, 4)):
        # 选择最佳切分特征和特征值
        feat, val = chooseBestSplit(dataSet, leafType, errType, ops)
        # r如果没有特征,则返回特征值
        if feat == None: return val
        # 回归树
        retTree = {}
        retTree['spInd'] = feat
        retTree['spVal'] = val
        # 分成左数据集和右数据集
        lSet, rSet = binSplitDataSet(dataSet, feat, val)
        # 创建左子树和右子树
        retTree['left'] = createTree(lSet, leafType, errType, ops)
        retTree['right'] = createTree(rSet, leafType, errType, ops)
        return retTree
    
    def linearSolve(dataSet):   #helper function used in two places
        m,n = np.shape(dataSet)
        X = np.mat(np.ones((m,n))); Y = np.mat(np.ones((m,1)))#create a copy of data with 1 in 0th postion
        X[:,1:n] = dataSet[:,0:n-1]; Y = dataSet[:,-1]#and strip out Y
        xTx = X.T*X
        if np.linalg.det(xTx) == 0.0:
            raise NameError('This matrix is singular, cannot do inverse,
    
            try increasing the second value of ops')
        ws = xTx.I * (X.T * Y)
        return ws,X,Y
    
    def modelLeaf(dataSet):#create linear model and return coeficients
        ws,X,Y = linearSolve(dataSet)
        return ws
    
    def modelErr(dataSet):
        ws,X,Y = linearSolve(dataSet)
        yHat = X * ws
        return np.sum(np.power(Y - yHat,2))
    
    def isTree(obj):
        return (type(obj).__name__=='dict')
    
    def regTreeEval(model, inDat):
        return float(model)
    
    def modelTreeEval(model, inDat):
        n = np.shape(inDat)[1]
        X = np.mat(np.ones((1,n+1)))
        X[:,1:n+1]=inDat
        return float(X*model)
    
    def treeForeCast(tree, inData, modelEval=regTreeEval):
        if not isTree(tree): return modelEval(tree, inData)
        if inData[tree['spInd']] > tree['spVal']:
            if isTree(tree['left']): return treeForeCast(tree['left'], inData, modelEval)
            else: return modelEval(tree['left'], inData)
        else:
            if isTree(tree['right']): return treeForeCast(tree['right'], inData, modelEval)
            else: return modelEval(tree['right'], inData)
    
    def createForeCast(tree, testData, modelEval=regTreeEval):
        m=len(testData)
        yHat = np.mat(np.zeros((m,1)))
        for i in range(m):
            yHat[i,0] = treeForeCast(tree, np.mat(testData[i]), modelEval)
        return yHat
    
    
    if __name__ == '__main__':
        trainMat = np.mat(loadDataSet("bikeSpeedVsIq_train.txt"))
        testMat = np.mat(loadDataSet("bikeSpeedVsIq_test.txt"))
        myTree = createTree(trainMat, ops=(1, 20))
        yHat = createForeCast(myTree, testMat[:,0])
        print(np.corrcoef(yHat, testMat[:,1], rowvar=0)[0, 1])
    

    在这里插入图片描述
    同样地,再创建一棵模型树:

    if __name__ == '__main__':
        trainMat = np.mat(loadDataSet("bikeSpeedVsIq_train.txt"))
        testMat = np.mat(loadDataSet("bikeSpeedVsIq_test.txt"))
        myTree = createTree(trainMat, modelLeaf, modelErr, (1, 20))
        yHat = createForeCast(myTree, testMat[:,0], modelTreeEval)
        print(np.corrcoef(yHat, testMat[:,1], rowvar=0)[0, 1])
    

    在这里插入图片描述
    我们知道,R2R^2 值越接近1.0越好,所以从上面的结果可以看出,这里模型树的结果比回归树好。

    下面再看看标准的线性回归效果如何:

    if __name__ == '__main__':
        trainMat = np.mat(loadDataSet("bikeSpeedVsIq_train.txt"))
        testMat = np.mat(loadDataSet("bikeSpeedVsIq_test.txt"))
        myTree = createTree(trainMat, modelLeaf, modelErr, (1, 20))
        yHat = createForeCast(myTree, testMat[:,0], modelTreeEval)
        ws,X,Y = linearSolve(trainMat)
        for i in range(np.shape(testMat)[0]):
            yHat[i] = testMat[i,0]*ws[1,0]+ws[0,0]
        print(np.corrcoef(yHat,testMat[:,1],rowvar=0)[0,1])
    

    在这里插入图片描述
    可以看到,该方法在 R2R^2 值上的表现上不如上面两种树回归方法。所以,树回归方法在预测复杂数据时会比简单的线性模型更有效。

    8、使用 Python 的 Tkinter 库创建 GUI

    机器学习提供了一些强大的工具,能从未知数据中抽取出有用的信息。因此,能否将这些信息以易于人们理解的方式呈现十分重要。再者,假如人们可以直接与算法和数据交互,将可以比较轻松地进行解释。如果仅仅只是绘制出一幅静态图像,或者只是在Python命令行中输出一些数字,那么对结果做分析和交流将非常困难。如果能让用户不需要任何指令就可以按照他们自己的方式来分析数据,就不需要对数据做出过多解释。其中一个能同时支持数据呈现和用户交互的方式就是构建一个 图形用户界面(GUI,Graphical User Interface),如图所示。

    from numpy import *
    
    from tkinter import *
    import regTrees
    
    import matplotlib
    matplotlib.use('TkAgg')
    from matplotlib.backends.backend_tkagg import FigureCanvasTkAgg
    from matplotlib.figure import Figure
    
    # 绘制树
    def reDraw(tolS,tolN):
        reDraw.f.clf()        # clear the figure
        reDraw.a = reDraw.f.add_subplot(111)
        if chkBtnVar.get():
            if tolN < 2: tolN = 2
            myTree=regTrees.createTree(reDraw.rawDat, regTrees.modelLeaf,
                                       regTrees.modelErr, (tolS,tolN))
            yHat = regTrees.createForeCast(myTree, reDraw.testDat, 
                                           regTrees.modelTreeEval)
        else:
            myTree=regTrees.createTree(reDraw.rawDat, ops=(tolS,tolN))
            yHat = regTrees.createForeCast(myTree, reDraw.testDat)
        reDraw.a.scatter(array(reDraw.rawDat[:,0]),array(reDraw.rawDat[:,1]),s= 5) # 离散型散点图
        reDraw.a.plot(reDraw.testDat, yHat, linewidth=2.0) 						   # 构建yHat的连续曲线
        reDraw.canvas.draw()
        
    def getInputs():
        try: tolN = int(tolNentry.get())
        except: 
            tolN = 10 
            print("enter Integer for tolN")
            tolNentry.delete(0, END)
            tolNentry.insert(0,'10')
        try: tolS = float(tolSentry.get())
        except: 
            tolS = 1.0 
            print("enter Float for tolS")
            tolSentry.delete(0, END)
            tolSentry.insert(0,'1.0')
        return tolN,tolS
    
    # 理解用户输入并防止程序崩溃
    def drawNewTree():
        tolN,tolS = getInputs() # 从输入框中获取值
        reDraw(tolS,tolN)		# 生成图
        
    # Tk类型的根部件
    root=Tk()
    
    # 创造画布
    reDraw.f = Figure(figsize=(5,4), dpi=100)
    # 调用Agg,把Agg呈现在画布上
    # Agg是一个C++的库,可以从图像创建光栅图
    reDraw.canvas = FigureCanvasTkAgg(reDraw.f, master=root)
    reDraw.canvas.draw()
    reDraw.canvas.get_tk_widget().grid(row=0, columnspan=3)
    
    Label(root, text="tolN").grid(row=1, column=0)
    # 文本输入框1
    tolNentry = Entry(root)
    tolNentry.grid(row=1, column=1)
    tolNentry.insert(0,'10')
    Label(root, text="tolS").grid(row=2, column=0)
    # 文本输入框2
    tolSentry = Entry(root)
    tolSentry.grid(row=2, column=1)
    tolSentry.insert(0,'1.0')
    # 初始化与reDraw()关联的全局变量
    Button(root, text="ReDraw", command=drawNewTree).grid(row=1, column=2, rowspan=3)
    # 按钮整数值
    chkBtnVar = IntVar()
    # 复选按钮
    chkBtn = Checkbutton(root, text="Model Tree", variable = chkBtnVar)
    chkBtn.grid(row=3, column=0, columnspan=2)
    
    reDraw.rawDat = mat(regTrees.loadDataSet('sine.txt'))
    reDraw.testDat = arange(min(reDraw.rawDat[:,0]),max(reDraw.rawDat[:,0]),0.01)
    reDraw(1.0, 10)
                   
    root.mainloop()
    

    在这里插入图片描述
    设置 model tree
    在这里插入图片描述
    整个数据集包含200个样本,将 tolN 设为150,tolS 不变时:
    在这里插入图片描述
    tolN 设为1,tolS 设为0时:
    在这里插入图片描述

    默认的treeExplore图形用户界面,该界面同时显示了输入数据和一个回归树模型,其中的参数 tolN=10tolS=1.0

    示例:利用GUI对回归树调优
    (1) 收集数据:所提供的文本文件。
    (2) 准备数据:用Python解析上述文件,得到数值型数据。
    (3) 分析数据:用Tkinter构建一个GUI来展示模型和数据。
    (4) 训练算法:训练一棵回归树和一棵模型树,并与数据集一起展示出来。
    (5) 测试算法:这里不需要测试过程。
    (6) 使用算法:GUI使得人们可以在预剪枝时测试不同参数的影响,还可以帮助我们选择模型的类型。

    Python有很多GUI框架,其中一个易于使用的Tkinter,是随Python的标准编译版本发布的。

    这里说一下当时安装时的坑,其实 Tkinter是自带在安装包里的,不需要重新安装。如果非要 pip 一下的话,就会报错。
    在这里插入图片描述

    9、总结

    数据集中经常包含一些复杂的相互关系,使得输入数据和目标变量之间呈现非线性关系。对这些复杂的关系建模,一种可行的方式是使用树来对预测值分段,包括分段常数或分段直线。一般采用树结构来对这种数据建模。相应地,若叶节点使用的模型是分段常数则称为回归树,若叶节点使用的模型是线性回归方程则称为模型树。

    CART算法可以用于构建二元树并处理离散型或连续型数据的切分。若使用不同的误差准则,就可以通过CART算法构建模型树和回归树。该算法构建出的树会倾向于对数据过拟合。一棵过拟合的树常常十分复杂,剪枝技术的出现就是为了解决这个问题。两种剪枝方法分别是预剪枝(在树的构建过程中就进行剪枝)和后剪枝(当树构建完毕再进行剪枝),预剪枝更有效但需要用户定义一些参数。

    Tkinter是Python的一个GUI工具包。虽然并不是唯一的包,但它最常用。利用Tkinter,可以轻松绘制各种部件并灵活安排它们的位置。另外,可以为Tkinter构造一个特殊的部件来显示Matplotlib绘出的图。所以,Matplotlib和Tkinter的集成可以构建出更强大的GUI,用户可以以更自然的方式来探索机器学习算法的奥妙。

    本章是回归的最后一章,接下来将离开监督学习的岛屿,驶向无监督学习的未知港湾。在回归和分类(监督学习)中,目标变量的值是已知的。在后面的章节将会看到,无监督学习中上述条件将不再成立。下一章的主要内容是K-均值聚类算法。

    参考文章

  • 相关阅读:
    volatile 关键字,你真的理解吗?
    kafka如何彻底删除topic及数据
    CentOS7 安装letsencrypt
    Qunar风控安全产品的探索之路
    乐观锁的实际应用
    前端打包报错内存溢出
    Exception in thread "main" java.lang.UnsatisfiedLinkError: Can't load library: /usr/lib/jvm/java11openjdkamd64/lib/libawt_xawt.so
    GitHud加速工具 devsidecar 安装
    linux系统命令行或shell里面设置终端title标题(适用与ubuntu,centos)[转]
    Sublime 搜索显示<binary>
  • 原文地址:https://www.cnblogs.com/hzcya1995/p/13302678.html
Copyright © 2020-2023  润新知