• 08 决策树与随机森林


    08 决策树与随机森林

    决策树之信息论基础

    认识决策树

    1. 来源: 决策树的思想来源非常朴素,程序设计中的条件分支结构就是if - then 结构,最早的决策树就是利用这类结构分割数据的一种分类学习方法。

    2. 举例:是否见相亲对象
      举例

    信息的度量和作用

    1. 克劳德 .艾尔伍德 .香农:信息论创始人,密西根大学学士,麻省理工学院博士。 1948年发表了划时代论文 - 通信的数学原理,奠定了现代信息论的基础。

    2. 信息的单位: 比特 (bit)

    3. 举例: 以32支球队争夺世界杯冠军

    • 如果不知道任何球队的信息,每支球队得冠概率相等。
      以二分法预测,最少需要使用5次才能预测到准确结果。 5 = log32 (以2为底)
      5 = -(1/32log1/32 + 1/32log1/32 + ......)

    • 开放一些信息,则小于5bit, 如1/6 德国,1/6 巴西, 1/10 中国
      5 > -(1/6log1/4 + 1/6log1/4 + ....)

    1. 信息熵:
    • “谁是世界杯冠军”的信息量应该比5 bit少, 它的准确信息量应该是:
    • H = -(p1logp1 + p2logp2 + p3logp3 +......p32logp32 ) Pi 为第i支球队获胜的概率
    • H 的专业术语就是信息熵,单位为比特

    决策树的划分以及案例

    信息增益

    1. 定义: 特征A对训练数据集D的信息增益g(D,A), 定义为集合D的信息熵H(D)与特征A给定条件下D的信息条件熵H(D|A) 之差,即:
      g(D,A) = H(D) - H(D | A)
      注: 信息增益表示得知特征 X 的信息而使得类 Y的信息的不确定性减少的程度。

    2. 以不同特征下的信贷成功率为例

    • H(D) = -(9/15log(9/15) + 6/15log(6/15)) = 0.971 # 以类别进行判断,只有是否两种类别
    • gD,年纪) = H(D) - H(D'|年纪) = 0.971 - [1/3H(青年)+ 1/3H(中年)+ 1/3H(老年)] # 三种年纪对应的目标值均占1/3
      - H(青年) = -(2/5log(2/5) + 3/5log(3/5)) # 青年类型中,类别的目标值特征为(2/5, 3/5)
      - H(中年) = -(2/5log(2/5) + 3/5log(3/5))
      - H(老年) = -(4/5log(2/5) + 1/5log(3/5))

    令A1, A2, A3, A4 分别表示年龄,有工作,有房子和信贷情况4个特征,则对应的信息增益为:
    g(D,A1) = H(D) - H(D|A1)
    其中,g(D,A2) = 0.324 , g(D,A3) = 0.420 , g(D,A4) = 0.363
    相比而言,A3特征(有房子)的信息增益最大,为最有用特征。
    所以决策树的实际划分为:

    常见决策树使用的算法

    1. ID3
    • 信息增益,最大原则
    1. C4.5
    • 信息增益比最大原则 (信息增益占原始信息量的比值)
    1. CART
    • 回归树: 平方误差最小
    • 分类树: 基尼系数最小原则 (划分的细致),sklearn默认的划分原则

    Sklearn决策树API

    1. sklearn.tree.DecisionTreeClassifier(criterion='gini', max_depth=None, random_state=None)
    • criterion (标准): 默认基尼系数,也可以选用信息增益的熵‘entropy’
    • max_depth: 树的深度大小
    • random_state: 随机数种子
    1. 决策树结构
      sklearn.tree.export_graphviz() 导出DOT文件格式
    • estimator: 估算器
    • out_file = "tree.dot" 导出路径
    • feature_name = [,] 决策树特征名

    决策树预测泰坦尼克号案例

    import pandas as pd
    from sklearn.feature_extraction import DictVectorizer
    from sklearn.model_selection import train_test_split
    from sklearn.tree import DecisionTreeClassifier, export_graphviz
    
    """
    泰坦尼克数据描述事故后乘客的生存状态,该数据集包括了很多自建旅客名单,提取的数据集中的特征包括:
    票的类别,存货,等级,年龄,登录,目的地,房间,票,船,性别。
    乘坐等级(1,2,3)是社会经济阶层的代表,其中age数据存在缺失。
    """
    
    
    def decision():
        """
        决策树对泰坦尼克号进行预测生死
        :return: None
        """
        # 1.获取数据
        titan = pd.read_csv('./titanic_train.csv')
    
        # 2.处理数据,找出特征值和目标值
        x = titan[['Pclass', 'Age', 'Sex']]
        y = titan[['Survived']]
        # print(x)
    
        # 缺失值处理 (使用平均值填充)
        x['Age'].fillna(x['Age'].mean(), inplace=True)
        print(x)
        # 3.分割数据集到训练集和测试集
        x_train, x_test, y_train, y_test = train_test_split(x, y, test_size=0.25)
    
        # 4. 进行处理(特征工程) 特征,类别 --> one_hot编码
        dict = DictVectorizer(sparse=False)
        x_train = dict.fit_transform(x_train.to_dict(orient='records'))
        print(dict.get_feature_names())
        x_test = dict.transform(x_test.to_dict(orient='records'))  # 默认一行一行转换成字典
        print(x_train)
    
        # 5. 用决策树进行预测
        dec = DecisionTreeClassifier()
        dec.fit(x_train, y_train)
    
        # 预测准确率
        print("预测的准确率:", dec.score(x_test, y_test))
    
        # 导出决策树
        export_graphviz(dec, out_file='./tree.dot', feature_names=['Pclass', 'Age', 'Sex'])
        return None
    
    
    if __name__ == '__main__':
        decision()
    

    随机森林

    集成学习方法

    1. 定义:集成学习通过建立几个模型组合,来解决单一预测问题。其工作原理是生成多个分类器 / 模型,各组独立地学习和作出预测。这些预测最后结合成单预测,因此优于任何一个单分类的租出预测。

    随机森林

    1. 定义:在机器学习中,随机森林是一个包含多个决策树的分类器,并且其输出的类别是由个别树输出的类别的众数而定。
      例如: 训练了5棵树,其中4棵树的结果是True, 1棵树为False, 那么最终的结果就是True. (投票)

    2. 问题: 如果每棵树使用相同的特征,相同的分类器,参数也相同,建立的每棵树不就是相同的么?

    随机森林建立多个决策树的过程:

    单个树的建立:(N个样本,M个特征)

    1. 随机在N个样本中选择一个样本,重复N次, 样本有可能重复
    2. 随机在M个特征当中选出m个特征 m << M
    3. 建立10棵决策树,样本,特征大多不一样 随机有放回的抽样 (bootstrap抽样)

    为什么要随机抽样训练集?

    如果不随机抽样,每棵树的训练集都一样,那么最终训练处的树分类结果也是完全一样的

    为什么要有放回的抽样?

    如果不是有放回的抽样,那么每棵树的训练样本都是不同的,都是没有交集的,这样的每棵树都是“有偏的”,“片面的”。即,每棵树训练出来都是有很大的差异,而随机森铃最后分类取决于多棵树(弱分类器)的投票表决。

    随机森林 API

    • 分类器:sklearn.ensemble.RandomForestClassifier
      • n_estimators:integer(整数),option, default=10 (森林里数目的数量)
      • criteria: string (default ='gini') 分割特征的测量方法
      • max_depth 树的最大深度
      • max_feature = 'auto' 每个决策树的最大特征数量
      • bootstrap: default = True 是否放回抽样

    随机森林的优点

    1. 在当前的所有算法中,具有极好的准确率
    2. 能有有效地运行在大数据集上 (样本,特征)
    3. 能够处理具有高维特征的输入样本,不需要降维
    4. 能够评估各个特征在分类问题上的重要性

    分类算法总结

  • 相关阅读:
    virtual private catalog
    About Health Monitor Checks
    修改ORACLE-NLS_DATE_FORMAT时间格式的四种方式
    About Quick Packaging and Custom Packaging
    Fault Diagnosability Infrastructure Overview
    Basic Concepts of Block Media Recovery
    破解:前一刻觉得还有好多事要做,突然间就不知道该干什么了
    利用OSG实现模拟飞机尾迹-粒子系统
    解决电脑上PPT频繁刷新的问题
    如何查看自己电脑系统的安装日期-Window上
  • 原文地址:https://www.cnblogs.com/hp-lake/p/11931462.html
Copyright © 2020-2023  润新知