• SiamRPN: High Performance Visual Tracking with Siamese Region Proposal Network


    High Performance Visual Tracking with Siamese Region Proposal Network
    2018-11-26 18:32:02

     

    Paperhttp://openaccess.thecvf.com/content_cvpr_2018/papers/Li_High_Performance_Visual_CVPR_2018_paper.pdf 

    PyTorch Codehttps://github.com/songdejia/siamese-RPN-pytorch  

    Train Code: https://github.com/MathsXDC/DaSiamRPNWithOfflineTraining 

    TensorFlow Codehttps://github.com/makalo/Siamese-RPN-tensorflow 

    Reference Codehttps://github.com/zkisthebest/Siamese-RPN 

    Another Implementation based on PyTorch with deeper and wider backbone network (SiamDW, CVPR-2019)https://github.com/researchmm/SiamDW (all the train and test code !!!) 

     

    1. Background and Motivation 

    现有的跟踪方法主要分为两种:

    1). 相关滤波跟踪方法;也有将 deep feature 结合到 CF 方法中,但是速度不够快;

    2). 完全基于深度网络的跟踪方法,由于没有用到 domain-specific information,效果并不是很突出。

     

    本文将 RPN 引入到跟踪过程中,极大地改善了跟踪效果。主要包含两个分支:

    1). Template branch; 

    2). Detection branch; 

    在测试阶段,作者将其看做是:local one-shot detection framework,第一帧中的 BBox 仅提供 exemplar。作者将 template branch 重新看做是参数来预测 detection kernels,类似于 meta-learner。meata-learner 和 detection branch 都仅仅用 RPN 的监督来进行端到端的训练。在 online tracking 过程中,Template branch 会被修剪以达到加速的目的。本文所提出的方法也是第一次将 online tracking 看做是 one-shot detection 任务。

     

    本文所提出的 Siamese RPN 的流程图如下所示:

     

    2. Siamese-RPN framework

    2.1 Siamese feature extraction subnetwork 

    在孪生网络中, 作者采用不带 padding 的全卷积网络。骨干网络是修改后的 AlexNet,Siamese tracker 的示意图如下:

     

     

    2.2 Region Proposal Subnetwork 

    该 RPN 子网络包含两个部分:pair-wise correlation section 以及 supervision section。

    Supervision section 包含两个分支:一个是用于前景和背景分类的分支,另一个分支用于 proposal 回归。

    如果有 k 个 anchors,网络需要输出 2k  channel 以进行分类,4k channels 以进行回归。所以,pair-wise correlation 首先增加 channel 个数为两个部分。另一个分支也分为两路,即:reg 和 cls。Template 分支输出的 feature 可以看做是 “kernel”,在 search region 的 feature 上进行卷积操作。在 classification 和 regression branch 上都要进行 correlation 操作:

     

    当进行训练时,作者采用 Faster RCNN 的损失函数。用交叉熵损失函数来训练 classification 分支,L1 loss 用于 regression 分支的训练。

    Ax, Ay, Aw, Ah 代表 anchor boxes 的中心点和形状,Tx, Ty, Tw, Th 代表 GT boxes,所以,归一化的距离可以表达为:

    然后,其通过 L1 loss,具体表达形式为:

    最终,作者优化的损失函数为:

    其中,Lcls 是交叉熵损失,Lreg 是:

     

     

    2.3 Training Phase 

    在训练阶段,ImageNet VID 和 Youtube-BB 被用于采集 sample pairs 来进行相似度匹配的训练。

    anchors 的选择是基于 IoU 进行的,当 IoU 大于设定的阈值(文中设置为 0.6),并且是正样本的时候,被当做是 anchors。负样本则认为是那些 IoU 低于 0.3 的。

    对于一个 training pair,作者设置最多 16 个正样本,总共 64 个样本。

     

    3. Tracking as one-shot detection

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

    ==

     

     

     

     

  • 相关阅读:
    计算机网络——TCP如何做到可靠数据传输
    计算机网络——TCP的流水线传输(超详细)
    计算机网络——TCP的拥塞控制(超详细)
    计算机网络——TCP的三次握手与四次挥手(超详细)
    计算机网络——多路复用与多路分解
    转:资源 | 我爱自然语言处理
    bootsect及setup
    python默认编码设置
    实例分析C程序运行时的内存结构
    matlab常用目录操作
  • 原文地址:https://www.cnblogs.com/wangxiaocvpr/p/10022087.html
Copyright © 2020-2023  润新知