• 30-大道至简——随机森林如何将分类器由弱变强


    两年前的我周末应该是在安逸地玩手机、看电视或出去玩,两年后的我不知被哪阵邪风侵入,总之现在每天以工作为乐,家里书房成了我的长期据点。现在的状态是没人逼我,不写代码不高兴。我想python的可爱语法是一个方面,另一个方面该不会是中危了?总之每天和时间赛跑的感觉……

    今天学习简单而强大的随机森林:

    • 随机森林

    可以看做是 ensemble of decision trees, 将弱的模型结合在一起变成强模型。更易扩展, 且较少会 overfitting。

    构造步骤如下:

    1. draw a random bootstrap sample of size n (with replacement)

    2. grow decision tree from bootstrap sample, at each node:

    3. randomly select d features without replacement

    4. split node using feature that provides best split

    5. repeat 1 & 2 k times.

    6. aggregate the prediction by each tree to assign the class label by majority vote

    划重点:抽样随机和选择特征随机。

    • 集成学习

    就是将多个不同的分类器集合组合为一个大的分类器, 选择最终结果是以 majority voting为准。即使每个单独的分类器错误率较高, 但将多个分类器组合之后, 错误率就会大大降低。

    假设我们组合了 n 个分类器,它们的错误率都为  εε , 各个分类器之间独立。

    则这 n 个分类器里, 多于 k 个分类器分类错误的概率为:

    • Majority vote分类器

    • 使用Sklearn自带的VotingClassifier

    下周学习如何评估majority voting的性能,敬请期待:)

  • 相关阅读:
    lab anycast rp
    激光 & 激光器
    管道机器人结构设计及控制系统搭建
    自动开关灯装置
    基于MATLAB步态算法仿真的六足仿生机器人
    蓝牙AT模式
    语音识别LD3320
    蓝牙模块设置
    6红外遥控程序
    62、如何消除碎片文件
  • 原文地址:https://www.cnblogs.com/turingbrain/p/7900524.html
Copyright © 2020-2023  润新知