• Learning to Learn and Predict: A Meta-Learning Approach for Multi-Label Classification


    Learning to Learn and Predict: A Meta-Learning Approach for Multi-Label Classification

    2019-10-01 11:29:54

     

    Paperhttps://arxiv.org/pdf/1909.04176.pdf 

     

    1. Background and Motivation:

    多标签分类问题的目标是同时进行多个 label 的识别,且这些 label 是有一定关联的;而传统的 多类别分类问题,仅仅是一个样本包含一个 label。现有的方法,从统计模型到神经网络的方法,都是共享标准的交叉熵损失函数进行训练的。在训练之后,这些模型尝试用单个预测策略来对所有的 label 进行最终的预测。实际上,这些方法都是基于如下的假设:no dependency among the labels。然而,如图1 所示,这种假设在实际情况下是很难满足的,但是 multi-label classification 的 label 依赖关系的问题却很少受到关注。

     

     

    由于受到标签依赖关系的影响,这些 label 的预测难度是大不相同的。

    首先,高层的 label 更加容易进行分类,如:organization,person 等;但是更加低层的 label,如 news,broadcast 等,则更加困难。

    其次,对于 label 之间没有显示关系的,可能仍然存在着一些隐层的关系,这在 NLP 领域中,是相当常见的。

    基于上述观察,作者考虑学习不同的训练策略 和 预测策略来进行多标签的识别。

     

    对于所有 label 的训练和预测策略,可以看做是一系列的超参数。然而,想要指定显示和隐式的标签依赖,也是不显示的。为了解决上述问题,本文提出一种 meta-learning 的框架来建模这些 label dependency,然后自动的学习训练和测试策略。具体来说,作者引入一种联合 meta-learning 和 multi-label classification 的学习框架。作者用一种基于 GRU 的 meta-learner 在训练阶段来捕获 label dependencies 和 学习这些参数。

     

    本文的贡献可以总结为如下几点:

    1). 首次在多标签分类问题上,提出联合的 “learning to learn” 和 “learning to predict” 。

    2). 本文方法可以对每一个 label 学习一个 weight 和 decision policy,并且可以用于训练和测试阶段。

    3). 本文方法是一种 model-agnostic,可以结合到多种模型中,并且取得了比 baseline 方法要好很多的效果。

     

     

     

    2. The Proposed Method

     

    2.1 Classifier Model

    对于一个 N 类的多标签分类问题来说,我们将训练策略表示为 w,测试策略表示为 p,其中 wi 和 pi 是第 i 类的训练权重和预测阈值。wt 和 pt 表示时刻 t 的权重向量和阈值向量。然后,本文的学习目标就变成了:learn a high-quality w and p for a certain classifier C. 为了更新分类器 C 的参数,作者在每个时刻采样一个 batch Bt。然后设置一个加权的交叉熵目标函数来更新 C,定义如下:

     

     

    其中,$y_i^*$ 表示 第 i 个样本的真值,$y_i^{(j)}$ 是输出向量 yi 的第 j 个 值。

     

    2.2 Meta-Learner

    作者这里认为 meta-learning 是一种 reinforcement learning 技术。而每一个时刻,meta-learner 观测到当前的状态 st,然后产生一个训练策略  wt 和 测试策略 pt,基于这些策略,分类器 C 的参数可以进行更新。在训练后,meta-learner 接收到一个奖励 rt。而本文 meta-learner 的目标就是选择两个策略,使得将来的奖励最大化:

    2.2.1  State Representation

    在本文中,作者将 meta-learner 建模为 RNN 结构,实际上用的是 GRU。状态表达 st 直接定义为 GRU 在每一个时刻 t 的隐层状态 ht。然后,st 是根据如下的公式进行计算的:

     

    其中,GRU 在 时刻 t 的输入是预测策略和训练策略的组合。

     

    2.2.2  Policy Generation

    在每一个时间步骤,meta-learner 可以产生两个策略,即:训练策略 wt 和 预测策略 pt。这两个策略均被表达为 N-dimensional 的向量格式。为了将训练策略 wt 结合到交叉熵的目标函数中,并且保持 classifier 的训练梯度在同一个数量级,wt 需要满足加和为 1 的约束。然后,在每一个时刻 t,训练策略可以按照如下的方法得到:

     

    对于测试策略,其定义为:

     

    在上述两个公式中,除了 st 是状态外,其他的参数都是可学习的参数。

     

    2.2.3  Reward Function

    奖励按照如下的公式进行计算:

     

    其中,$y_i$ 是第 i 个样本的输出概率,$y_i^*$ 是对应的真值向量。作者这里也给了一个例子,来说明奖励的计算过程:

     

     

    2.3  Training and Testing

     

     

  • 相关阅读:
    Android开发效率—Eclipse快捷键
    Android学习笔记之AndroidManifest.xml文件解析
    Android开发环境的安装 Eclipse
    运用CodeSmith Studio实现C#项目构架
    使用C#开发ActiveX控件(新) 转 http://www.cnblogs.com/yilin/p/csharp-activex.html
    C# winFrom 制作、打包、签名、发布Activex全过程
    C# Server.MapPath()
    PowerDesigner导出表到word
    powerdesigner 15 如何导出sql schema
    PowerDesigner15使用时的十五个问题
  • 原文地址:https://www.cnblogs.com/wangxiaocvpr/p/11615921.html
Copyright © 2020-2023  润新知