• test


      GBDT,是Gradient Boost Decision Tree的缩写,是Boosting家族的一元,即通过训练前后依赖的一组的学习器,组成一个强学习器,对外提供服务

      GBDT底层是决策树,这个从名字可以看出来,而且用的是CART算法;所以一定要了解CART的分类以及回归的算法。

      首先描述一下算法的流程,然后我们再通过一个例子来解释一下。

      GBDT的原理就是构建模型(树),然后计算这个模型和真实值的偏差(残差,residual),将偏差作为标签纸,样本特征不变,构建新的模型(树),在基于这个模型,再和上一次训练数据的标签纸进行残差计算,作为下一个学习器的训练标签,如此往复,知道构建的残差达到目标大小,或者迭代数达到了指定数目。

      GBDT的原理的数据公式如下:

    image
      首先是构建一个初始化的模型:

    (f_0(x)=arg min_c sum_{i=1}^NL(y_i,c))

    即求得c值,以是的损失函数的达到最小值,毫无疑问,在限定取值范围的情况下,均值是最小值。或者我们可以推导一下:

    (sum_{i=1}^{N} L(y_i, c) = sum_{i=1}^{N}frac{1}{2}(y_i - c_i)^2) 对此式求导数为0,以求得极值: $frac{partial sum L(y_i, c)}{partial y_i} = sum_{i=1}^{N}left(y_i - c ight)$$=sum_{i-1}^{N}y_i - Nc = 0 (` 可以推知: c = `)frac{sum_{i-1}^N y_i}{N} $`,即y的均值,在本例中

    c = (1.1 + 1.3 + 1.7 + 1.8)/4 = 1.475
    后面我们获取残差: https://blog.csdn.net/zpalyq110/article/details/79527653 很强悍的解释,尤其是提供了一个例子来说明算法,我就是通过这个例子才明白算法含义 GBDT的原理的数据公式如下: image   首先是构建一个初始化的模型:![](https://img2018.cnblogs.com/blog/71977/202001/71977-20200120204015436-1751235394.png)
  • 相关阅读:
    shell编程:字符串处理方式
    shell编程:变量替换
    export的用法
    docker stack利用secrets启动wordpress
    docker swarm创建swarm集群
    docker x509: certificate has expired or is not yet valid
    docker-compose的scale的用法
    字符串函数-unquote()函数
    Sass-@each
    Sass-@while
  • 原文地址:https://www.cnblogs.com/xiashiwendao/p/12219327.html
Copyright © 2020-2023  润新知