• YOLO家族之新篇YOLOV4


    一、什么是YOLOV4

           YOLOV4是基于原有YOLO目标检测架构,采用了近年来CNN领域最优秀的优化策略。

    从数据处理,主干网络,模型训练,激活函数,损失函数等各个方面都有着不同程度的优化。

    二、YOLOV4的改进总结

           1、开发了一个简单高效的目标检测算法,降低了训练门槛:仅使用一块GPU:1080TI,就可以训练一个又快又准的检测器;

           2、验证了最新的Bag-of-Freebies和Bag-of-Specials在训练过程中对YOLOV4的影响;

           3、优化了一些最新提出的算法:CBN,PAN,SAM,使YOVOV4可在一块GPU上训练。

    三、常用改进方法介绍

          1、模型结构        

    一个完整的网络模型一般包含四部分:

    1)输入部分:算法的输入,整个图像,一个PATCH或图像金字塔

    2)主干网络:提取图像的特征,浅层特征如:边缘,颜色,纹理等。可以使用设计好并训练好的网络:VGG16,19,RESNET50,RexNeXt101,Darknet53,当然,还有一些轻量级的网络:MobileNet1,2,3 ,ShuffleNet1,2

    3)瓶颈部分:特征增强,对主干网提取到的特征进行加工,增强。典型的有:SPP,ASPP,RFB,SAM,还有FPN,PAN,NAS-FPN,BiFPN,ASFF,SFAM。

    4)检测头:算法项的输出。

       如想得到HeatMap(CenterNet),就增加一些反卷积;

       如想得到BBOX,就接CONV来输出结果,如:YOLO,SSD;

      如想输出多任务(MaskRCNN)那就输出三个Head:分类Classification ,回归Regression ,分割Segmentation

    2、训练策略

      2.1  Bag-of-freebies

      在不增加模型复杂度的情况下,使用一些比较有用的训练策略来提升准确率,如:Data augmentation

      2.1.1 数据增强

      增加训练样本的多样性,使模型有更高的鲁棒性。

        [1]逐像素pixel-wise

       (1)几何增强:随机翻转,随机裁剪,拉伸,旋转

         (2)色彩增强:对比度增强,亮度增强,HSV空间增强(较关键)

        [2]逐块block-wise

          (1) 在图像中随机裁剪矩形区域,用0填充(cutout)

          (2) 随机裁剪多个矩形区域(grid mask)

          (3)在Heatmap上裁剪并填充(dropout,dropconnect,dropblock)

        [3] Mixup

          将两个图像按不同比例相加,a*0.1+b*0.9=c。

     2.1.2 解决数据不平衡

         数据不平衡分两种:

          一、背景和要识别物体之间的不均衡

              如:在两阶段方法中,RPN阶段会生成很多ROI,里面有太多背景,有用的框很少;

         二、类别不平衡

             识别物体间不同类别间的不平衡,涉及到一个长尾分布。需要使用OHEM(困难样本挖掘)或Focal loss,或Label smooth

      2.1.3 修改Loss函数

         最早是MSE,现在是NMS(IOU),然后是GIOU Loss。

      2.2 Bag-of=Specials

        通过增加少量的计算,能有效增加物体检测的准确率。

      2.2.1  增大感受野

       SPP:解决输入尺寸不一致,按比例1,2,4或1,2,3三个尺度划分Pooling,输出相同大小FeatureMap

       ASPP:在SPP前加了Atrous或Dilated

      RFB:在同一个FeatureMap下,引入不同dilated ratio的空洞卷积,提取到不同的感受野,最后进行融合

      2.2.2 注意力机制

       channel attention:SENet,在FeatureMap层中同时引入一个1x1xC的weights,可以对每个channel上的特征加入不同权重,提高特征学习能力。

      Spatial attention:在HW维度上加入attention。

      Channel+Spatial:channel attention和spatial attention融合。

      2.2.3 特征融合或特征集成

      skip connection:在Encoder-decoder中比较多,如:UNet,融合底层和高层的特征信息;

      hyper-column:就像InceptionV4结构,使用不同的kernel-size的卷积来集成特征;

      FPN,ASFF,BiFPN:将不同阶段的不同尺度的特征进行融合。EfficientDet中BiFPN连接最密集;

      2.2.4 激活函数

      一个好的激活函数既能使得梯度传播更高效,同时不会占用额外的计算资源。

      ReLU

      LReLU、PreLU、 SELU、ReLU6、Swish、Hard-Swish、Mish

      2.2.5后处理

      NMS,SoftNMS,DIoU NMS

    四、本文改进方法

       1、 数据增强:Mosaic

      

       将4张训练图片混合成一张的新的数据增强方法,可以丰富图像的上下文信息,增强模型的鲁棒性,另外也减少了对Mini-batch处理size的需求。

        2、自对抗训练 Adversarial training

      一种新的数据扩充技术,分两阶段:第一阶段,神经网络先改变原始图像而不是网络权值,对自身执行对抗性攻击,改变原始图像,从而造成图像上没有目标的假象;第二阶段,训练神经网络对修改后的图像进行正常的目标检测。

       3、CmBN

        是CBN的修改版本,定义为跨微批量标准化,仅收集单个批次中的小批之间的统计信息

      4、SAM(Spatial Attention Module)改进

       将SAM从空间上的attention修改为点上的attention,并将PAN的short-cut连接改为拼接,如下图:

     

    五、YOLOV4的架构

        Backbone:CSPDarknet53

        Neck:SPP,PAN

        Head:YOLOV3

      YOLOV4的调试Trick:

       BoF:

          Bakbone:CutMix和Mosaic数据增强,DropBlock正则化,类标签平滑;

          Detector:CIoU Loss,DropBlock正则化,自对抗训练,最优超参数;

       BoS:

          Bakbone:Mish,CSP(跨级部分连接),MiWRC(多输入加权残差连接)

          Detector:SPPBlock,SAMBlock,PAN(路径聚合网络),DIOU-NMS 

    六、实验与超参数

    1、分类

       ImageNet图像分类,超参数如下:

      训练步骤:8,000,000

      批量尺寸:128,小批量尺寸:32

      采用多项式衰减学习速率调整策略,初始学习率为:0.1

      warmup:1000

      momentum:0.9,weight decay:0.005

    2、检测

      训练步骤:500500

      初始学习率:0.01,4,000,000步后和4,500,000步后分别乘以0.1

      momentum:0.9,weight:0.0005

      批量大小:64,小批量大小:8或4

    七、原作信息

       论文链接:

       https://arxiv.org/pdf/2004.10934.pdf

       代码链接:

        https://github.com/AlexeyAB/darknet

       已训练好的模型文件:

      https://pan.baidu.com/s/189L8HHBIUpQ5tzleKw1BvA    提取码: kd6b

    上一篇:

      yolo模型的特点与各版本性能对比

    下一篇:

      YOLOV5,待更新。。。

  • 相关阅读:
    AWT布局管理器
    聊一聊Java中的各种运算符
    Java中数组操作 java.util.Arrays 类常用方法的使用
    Python中的可变对象与不可变对象、浅拷贝与深拷贝
    【WEB基础】HTML & CSS 基础入门(7)表格
    pycaffe cifar10
    caffe 调试
    caffe Dtype
    caffe 逐步调试
    caffe template
  • 原文地址:https://www.cnblogs.com/jimchen1218/p/13672098.html
Copyright © 2020-2023  润新知