• Large-Scale Adversarial Training for Vision-and-Language Representation Learning


    Large-Scale Adversarial Training for Vision-and-Language Representation Learning
    2020-06-12 10:25:21
    Code
     
    本文受到前人对抗训练方法的启发,将其用到 vision-language model 的预训练中。
     

    该方法的核心部分有如下三点:

    • 对抗的预训练和微调机制; 
    • 在映射空间添加干扰;
    • 增强的对抗训练方法;

    1. 对抗预训练与微调

    Pre-training

      给定预训练数据集,包含 image-text pairs,训练的目标就是在这个大型数据集上学习一些与任务无关的特征。常用的预训练方法有三种:

    • Masked language modeling 
    • Masked region modeling 
    • Image-Text matching 

    Finetuning:

      给定具体的任务和监督学习数据集,可以在上面预训练模型参数的基础上针对不同的任务进行微调。

    Two-stage Adversarial Trainer

    预训练和微调在本质上是紧密联系的。模型的训练需要掌握本质的推理技巧,从而促使模态融合,进行跨模态的联合理解。作者认为:

    • 通过在 pre-training stage,执行对抗训练, 改善的泛化能力对微调阶段也是有益的;
    • 在微调阶段,任务相关的微调信号变得可用,对抗微调可以用于进一步的改善性能。

    由于 pre-training 和 finetuning 共享同一个数学表达式,同样的对抗算法可以在两个阶段都采用。

    2. Perturbations in the Embedding Space

    对于 image modality,由于最新的 V-L 模型通过将 pre-trained object detectors 作为输入,作者就直接在特征空间添加干扰。在预训练的 V+L model 中,位置映射是用于编码图像区域的位置和单词的索引。本文的方法仅仅改变了 image 和 word embedding 的映射,其他的多模态特征未变。此外,由于 image 和 text 模态的不同,作者仅对其中的一个模态添加扰动。这里加的扰动不能太大,否则会改变原始的语义信息,这是不能接受的。

    3. “Free” Multimodal Adversarial Training

    实验中用的总体损失函数为:

     

    其中,第一项为交叉熵损失函数,第二个为 label-preserving AT loss,第三个是细粒度对抗正则化项。具体来说,AT 损失为:

    其中,L 是对抗映射的 交叉熵损失。正则化项为:

    这里是想使得原始特征 和 添加干扰后的特征,尽可能保持一致。总体算法流程见 Algorithm 1 

     

    在各种主流 V-L 任务上,都取得了一定程度上的提升:

      

  • 相关阅读:
    php 微信-支付宝APP支付(退款)参数获取
    宝塔面板下安装svn版本管理(Centos)
    获取上传文件浏览器路径
    PHP 自制简易其它网站调用密文加密解密
    获取嵌入的资源
    设计模式02(结构性设计模式)
    人为控制随机概率
    设计模式01(创建性设计模式)
    插件式开发
    使用Word2010直接编辑、发布博客→博客园cnblogs
  • 原文地址:https://www.cnblogs.com/wangxiaocvpr/p/13097962.html
Copyright © 2020-2023  润新知