• 论文阅读笔记(三十六)【AAAI2020】:Relation-Guided Spatial Attention and Temporal Refinement for Video-based Person Re-Identification


    Introduction

    为了提取两个特征之间的相关性,设计了Relation Module(RM)来计算相关性向量;

    为了减小背景干扰,关注局部的信息区域,采用了Relation-Guided Spatial Attention Module(RGSA),由特征和相关性向量来决定关注的区域;

    为提取视频级特征,采用了Relation-Guided Temporal Refinement Module(RGTR),通过帧之间的关系信息融合为视频特征。

    Method

    (1)框架概述:

    假定输入的视频片段为,采用CNN提取得到单帧的特征映射,传入RGSA提取得到帧级特征向量 ,得到向量集合,最后通过RGTR得到视频级特征向量。采用的损失包含:帧级的交叉熵损失、视频级的交叉熵损失、三元组损失。

    (2)RM模块:

    计算两个向量之间的关系最简单的方法是求向量的内积,但其结果只能表明向量间的相似度,忽视了局部的相似度和差异。另一个常用计算方法是计算元素差异,但这种方法包含了冗余信息,且计算量大。因此作者提出了RM模块来计算两个特征之间的关系向量。

     两个特征之间的差异度计算为:,其中,其中,最终得到相关性向量为:,其中

    (3)RGSA模块:

    假定图像的特征映射为,其中表示不同的空间元素,每个元素都表示为 C 维的特征向量,将特征重构为,针对每一个空间元素都计算其与其它位置元素的相关性向量,即:

    与位置 i 有关的相关性向量concat为:

    其中:,得到空间的注意力得分:

    其中,最终特征向量融合了空间注意力,为:

    (4)RGTR模块:

     通过上述模块提取得到帧级的特征向量,通过RM模块提取帧之间的相关性向量:

    将关于 t 帧的相关性向量进行concat,为:

    与原特征进行融合,为:

    最终视频级的特征向量为:

    (5)损失函数:

    对视频级特征、帧级特征采用交叉熵损失,分别为,总交叉熵损失为:

     三元组损失计算为:

    其中:为距离函数。

    全局损失为:

    Experiment

    (1)实验设置:

    ① 数据集:MARS、DukeMTMC-VideoReID、iLIDS-VID、PRID-2011;

    ② 实验细节:在训练阶段随机从视频中挑选T帧,每个batch包含 P 个行人ID,每个行人ID包含 K 个视频;数据输入采取随机翻转、随机擦除;骨干网络采用预训练的ResNet50;训练阶段选取帧数为T/2;采用4块NVIDIA Tesla V100 GPU进行训练测试;

    ③ 参数设置:P = 18,K = 4,即batch size = 72 T;输入图像规格为 256*128;训练器为Adam,其weight decay = 5*10-4;迭代次数为375次;学习率为3*10-4,在125个epoch和250个epoch后均下降到0.1倍。

    (2)实验结果:

    (3)方法效果可视化:

  • 相关阅读:
    Control.CheckForIllegalCrossThreadCalls
    c#禁止Webbrowser控件的弹出脚本错误对话框
    c#,WebBrowser 判断网页是否加载完毕
    c#里的动态数组ArrayList
    C#数据类型转换
    Net2.0 的新线程 ParameterizedThreadStart &BackgroundW
    在C#中使用委托的方式触发事件
    ASP.NET运行原理
    第六讲:ObjC 内存管理4 自动释放池
    第二讲:ObjC 点语法
  • 原文地址:https://www.cnblogs.com/orangecyh/p/12766686.html
Copyright © 2020-2023  润新知