• GBDT和随机森林的区别


     

    随机森林和GBDT的区别

    1. 随机森林采用的bagging思想,而GBDT采用的boosting思想。这两种方法都是Bootstrap思想的应用,Bootstrap是一种有放回的抽样方法思想。虽然都是有放回的抽样,但二者的区别在于:Bagging采用有放回的均匀取样,而Boosting根据错误率来取样(Boosting初始化时对每一个训练样例赋相等的权重1/n,然后用该算法对训练集训练t轮,每次训练后,对训练失败的样例赋以较大的权重),因此Boosting的分类精度要优于Bagging。Bagging的训练集的选择是随机的,各训练集之间相互独立,弱分类器可并行,而Boosting的训练集的选择与前一轮的学习结果有关,是串行的。
    2. 组成随机森林的树可以是分类树,也可以是回归树;而GBDT只能由回归树组成
    3. 组成随机森林的树可以并行生成;而GBDT只能是串行生成。
    4. 对于最终的输出结果而言,随机森林采用多数投票等;而GBDT则是将所有结果累加起来,或者加权累加起来。
    5. 随机森林对异常值不敏感;GBDT对异常值非常敏感。
    6. 随机森林对训练集一视同仁;GBDT是基于权值的弱分类器的集成。
    7. 随机森林是通过减少模型方差提高性能;GBDT是通过减少模型偏差提高性能。

    随机森林

    优点:

    1. 实现简单,训练速度快,泛化能力强,可以并行实现,因为训练时树与树之间是相互独立的;
    2. 相比单一决策树,能学习到特征之间的相互影响,且不容易过拟合;
    3. 能处理高维数据(即特征很多),并且不用做特征选择,因为特征子集是随机选取的;
    4. 对于不平衡的数据集,可以平衡误差;
    5. 相比SVM,不是很怕特征缺失,因为待选特征也是随机选取;
    6. 训练完成后可以给出哪些特征比较重要。

    缺点:

    1. 在噪声过大的分类和回归问题还是容易过拟合;
    2. 相比于单一决策树,它的随机性让我们难以对模型进行解释。

    GBDT

    优点:适用面广,离散或连续的数据都可以处理,几乎可用于所有回归问题(线性/非线性),亦可用于二分类问题(设定阈值,大于阈值为正例,反之为负例)

    缺点:由于弱分类器的串行依赖,导致难以并行训练数据。

    引自:https://blog.csdn.net/qq_14997473/article/details/88877198

  • 相关阅读:
    理解WebKit和Chromium: Chromium的多线程机制
    java.lang.IllegalStateException: Web app root system property already set to different value
    MySQL 深入剖析 char varchar 类型,有了VARCHAR,为什么还要有CHAR?
    Ubuntu包管理命令大全,包括apt命令和dpkg命令
    GHashTable不能以字符串作为key,可以使用data list来代替
    LFS全过程历险
    忘记了root密码怎么办?
    ArchLinux安装几天的经验总结、bug修正和软件配置
    mplayer加载srt字幕乱码,或是下划线等问题解决
    从串口登录Linux主机
  • 原文地址:https://www.cnblogs.com/lyp1010/p/14060019.html
Copyright © 2020-2023  润新知