• [论文]Clustering-Based Ensembles as an Alternative to Stacking


    Clustering-Based Ensembles as an Alternative to Stacking

    作者:Anna Jurek, Yaxin Bi, Shengli Wu, and Chris D. Nugent, Member, IEEE

    杂志:IEEE TRANSACTIONS ON KNOWLEDGE AND DATA ENGINEERING, VOL. 26, NO. 9, SEPTEMBER 2014

    这篇论文是聚类集成问题,聚类框架是传统的框架,按论文的说法有点创新,是将传统的分类集成框架,后半部分用聚类集成代替,最终的框架便是:

    1. 前半部分通过多个分类器获得类标号。
    2. 后半部分通过将类标号看左样本新的属性,结合旧的属性作聚类集成(kmeans)。DBI 作为衡量指标。
    3. 最终样本的划分通过k中心。

      这样简单的结合其实很多发表论文已经用过,我认为这篇论文主要创新点是后半部分的论述:

    为什么结合了分类标号作为新的属性,能够提升准确度。

        论文指出以前论文的做法其实属于经验主义,而该论文则通过理论来推论证明。

      对于监督学习,这个其实便是按传统的分类集成框架,如下:

    1. 对于数据集,通过N 个分类器划分,得出了N 列结果。
    2. 将N 个分类器的结果,与数据集的属性结合,获得新的属性。
    3. 通过信息增益函数计算各个属性的信息熵。
    4. 选择最具代表性的属性。
    5. 对于提取后的属性,进行kmeans,聚类,通过DBIndex 衡量。
    6. 模型训练结束,样本的类标号通过k 中心 划分。

      模型的训练如上,在模型训练后,对于新输入的数据集,便只计算样本原来的属性。

    下面是论文的论述:

    对于连个确定的集合(validation sets):

      V1,V2,其实便是初始数据集通过了N个分类器之后的分类结果,作为样本的新属性C1 to Cn,与就的属性 F1 to Fk结合,这里的n k 小写意思是提取过的,P 是样本个数。

      既然是讨论:为什么结合了分类标号作为新的属性,能够提升准确度。

      那么便是一个添加了分类结果,一个没有添加,前者便是V1,后者便是V2.

      问题便是:分别使用者两个确定集合,作kmeans 聚类,然后样本的类标号通过k 中心确定,为什么V1比V2准确率高

      分别对V1 V2进行kmeans 聚类,假设例子如下,左图的是V1,有图的是V2,其中的Y* Z* 便是类中心,可以看出V1 聚类成8个,V2聚类成7个:

      怎么确定一个聚类结果的类标号? 因为这是监督学习,所以是知道样本的类标号的,那么便是一个类中属于哪个类标号多的,这个类标号便是类中心的标号。这句话比较重要,因为后边的论述是以其为基础。

      当然并不是全部的都考虑,例如上面划分直线附近的点,容易导致overlap,所以引入了如下约束:

      意思是便是只考虑距离类中心一定距离的样本点,其中dC、dF 表示样本X与中心Y* 之间的欧式距离,可以看出是拆开考虑,这两个临界值的取值如下:

      对于第一条,每个类中心,在其类中的样本点,选出到中心点最大的距离(dc),每个类都有一个这样 的距离,最后选择最小的作为θ1。

      第二条,跟上面的类似的,只是衡量有dc 变成df,同时选择V1 V2 中较小的作为θ2.

      这样的图示如下:

      这样加了约束后,影响的是类中心的类标号确定,因为只考虑了约束内的样本点。在知道了类中心的类标号后,考虑分类阶段,对于一个不知道标号的样本X,通过原始属性F1 to Fk,来计算他离得最近的中心,然后用这个中心的类标号作为其标号,假设这个样本X的真实类标号为c,通过公式表示便是:

      

      其中L1,表示类的个数,上图中L1 =8.

      衡量准确度,便是衡量被预测样本X将要归属的类中心的标号是否与X 的真实类标号一样。通过概率表现如下:

    其中:

    V1:I II 是为了为了约束的,III约束X 将要被分配到的类中心。

      这样来看,其实证明上面的概率比下面的概率大,即X最近的聚类中心,通过添加分类标号作为属性的话,更有可能被确认为cr 标号。

        通过一定推导可以得出下面公式,推导过程见论文附录。

      左边其实是V1 概率,右边是V2 概率。那么假如中间部分>=1,便可以得出左边>=右边。

       上面这个条件的成立,只需要下面条件成立,推导过程也在附录中。

     

      上面这条件的意思是:两个真实标号一样的样本,被分配到同一个分类中的概率,比两个真实标号不同的样本,分配到同一个分类中的概率大。

      这其实是分类的作用了,论文中附录还证明了对于真实标号数目只有2时候,分类器的准确率达到0.5便可以使上式成立。

      上面的 是分类标号+样本属性 > 样本属性,同时论文还证明 分类标号+样本属性 > 分类标号,只需满足一下条件:

      意思是:两个真实标号一样的样本,比两个真实标号不一样的样本更相似。

  • 相关阅读:
    pytorch的函数中的group参数的作用
    pytorch的函数中的dilation参数的作用
    resnet18全连接层改成卷积层
    Pytorch实现UNet例子学习
    MyEclipse中出现Address already in use:JVM_Bind:8080
    为SQL数据库创建登录名和密码
    集合体系
    排序算法及其java实现
    java泛型通配符?
    Arrays.asList的用法
  • 原文地址:https://www.cnblogs.com/Azhu/p/4213704.html
Copyright © 2020-2023  润新知