• AdaBoost


    AdaBoost是adaptive boosting的缩写,其运行过程如下:

    1.训练数据中得每个样本,并赋予其一个权重,这些权重构成了向量D。

    一开始,这些权重都初始化成相等值。

    2.首先再训练数据上训练出一个弱分类器并计算改分类器的错误率,然后在同一数据集上再次训练弱分类器。

    3.在分类器的第二次训练中,将会重新调整每个样本的权重,其中第一次分对的样本的权重将会降低,而第一次分错的样本的权重将会提高。

    为了从所有弱分类器中得到最终的分类结果,AdaBoost为每个分类器都分配了一个权重值alpha,这些alpha值是基于每个弱分类器的错误率进行计算的。其中,错误率ε定义为:

    ε = 未正确分类的样本数目/所有样本数目

    而alpha的计算公式如下:α = 1/2 * ln((1-ε)/ε)

    4.计算出alpha值之后,可以对权重向量D进行更新,以使得那些正确分类的样本的权重降低而错分样本的权重升高。D的计算方法如下。

    如果某个样本被正确分类,那么该样本的权重更改为:

    (t+1)=D(t)e/Sum(D)

    而如果某个样本被错分,那么该样本的权重更改为:

    (t+1)=D(t)eα/Sum(D)

    5.在计算出D之后,AdaBoost又开始进入下一轮迭代。直到错误率为0或者弱分类器的数目达到用户的指定值为止。

  • 相关阅读:
    [栈]
    [数据结构实验]学生成绩管理
    [数据结构实验]集合交并
    shapefile 转 geojson 文件类型
    ubuntu sublime text key
    opengl
    c++
    sublime text3 key
    ubuntu安装nvidia驱动
    全球国家svg边界svg
  • 原文地址:https://www.cnblogs.com/ryuham/p/4442113.html
Copyright © 2020-2023  润新知