• 集成学习AdaBoost算法——学习笔记


    集成学习

    个体学习器1

    个体学习器2  

    个体学习器3   ——> 结合模块  ——>输出(更好的)

    ...

    个体学习器n

    通常,类似求平均值,比最差的能好一些,但是会比最好的差。

    集成可能提升性能、不起作用、甚至起负作用。

    集成要提高准确率!

    每一个个体学习器之间存在差异

    一定要有差异性,有差异性才能提升。这些弱学习器需要,好而不同。

    集成学习分类:Bagging Boosting

    Bagging:并行生成,然后结合。不存在依赖关系。

    Boosting:依赖关系,一个一个学习器产生。

     AdaBoost算法

    多个弱学习器加权融合:

     

    误差率

    每一个样本权重1/M,如果分错一个

    分错第几个点

    预测错误的权重提高(预测),迭代训练至错误率足够小。

    Sign函数:1、-1两类。(>0or<0?)

    算法流程:

    10个样本,每个样本权重1/10=0.1

     

    阈值根据观察,可以2.5/5.5/8.5?

    选择误差率最低的,<阈值,Y=1。

    2.5时,6、7、8,Y=-1分错了;

    5.5时,3、4、5、6、7、8分错了。

    第二次:

    计算系数后,再次更新权重:

    第三次:

     权重变化

    对上一个分类器,分类错误的。迭代。

    优点:

     

    决策树构建模型:

  • 相关阅读:
    生成器
    IO调度算法
    进程与线程
    磁盘阵列(RAID)实例
    KVM虚拟化技术(七)虚拟机配置文件
    查询快递单号-京东快递接口
    快递单号查询快递鸟API接口-优速快递
    查询快递单号-德邦快递
    快递单号查询快递鸟API接口-EMS
    快递单号查询快递鸟API接口--安能快递
  • 原文地址:https://www.cnblogs.com/wxl845235800/p/10133838.html
Copyright © 2020-2023  润新知