• 常见网络


    常见网络

    目标检测

    R-CNN

    • 参考:https://blog.csdn.net/weixin_41923961/article/details/80113669

      • 测试过程
        1. 输入一张测试图像, 使用selective search算法提取出大约1000-2000个建议框

          • selective search算法的OpenCV使用
          
          im = cv2.imread('./test.jpg')
          ss = cv2.ximgproc.segmentation.createSelectiveSearchSegmentation()
          ss.setBaseImage(im)
          ss.switchToSelectiveSearchFast()
          # ss.switchToSelectiveSearchQuality()
          
          rects = ss.process()
          print('Total number of region proposals: ', len(rects))
          
          for i, rect in enumerate(rects):
              x, y, w, h = rect
              cv2.rectangle(im, (x, y), (x + w, y + h), (0, 0, 255), 1, cv2.LINE_AA)
          cv2.imshow('output.jpeg', im)
          cv2.waitKey(0)
          
        2. 取出一个建议框, 取出里面的图片, resize到227x227(R-CNN使用的AlexNet, AlexNet需要输入227x277大小的图片), 将其输入到AlexNet中, 每一个建议框都这样操作, 一个建议框得到4096个特征, 如果有2000个建议狂, 则有2000x4096个维度

        3. 将得到的2000x4096的特征放入到20个SVM(SVM是一个2分类的分类器, 这里有20个类别)分类器中, 得到2000x20维度的矩阵

        4. 2000x20个矩阵每一列就是一个物体的得分, 从2000列中挑选出同一类别的列向量, 对他们的建议框进行NMS抑制去掉重叠的框

        5. 使用20个回归器对物体的建议框进行修正, 得到bounding box, 在训练时, 因为建议框是通过selective search得到的, 不能够修改, 学习的是建议框到bounding box的变化

      • 流程图

    Fast R-CNN

    • 之前的R-CNN的效率很低, 因为它对原图进行selective search, 生成大约2000个候选框, 在分别把这2000个候选框输入到网络中, 分别预测类别和回归框; 此外对输入的图片的尺寸越有要求, 要277x277, 所以对图片要么crop, 要么warp, 这其实都不是很可靠
    • Fast R-CNN提出RoIPooling和特征框
      • 特征框: 既然在原图上生成候选框再将这些候选框都输入到网络中很耗时间, Fast R-CNN就将原始图直接输入到AlexNet网络中, 得到的就是了feature maps, 将原图提取到的候选框映射到feature maps上, 成了特征框

      • RoIPooling: 参考了SPPNet中SPP池化, RoIPooling是SPP池化的单尺度形式, 加入FC要接受4维特征, 则RoIPooling将feature maps中的特征框划分成4份, 对每一份取最大值就可以了

        • 下图是输入到RoIPooling的特征图, fc接受的是4, 因此需要池化到2x2
          !

        • 黑色框为特征框

        • 将RoI分成4份, 因为无法整除, 所以大小不一

        • 注意: 在Fast R-CNN中, region proposal得到的x,y,w,h为小数, 这里将他们取整, 这里有一个细节: 取整之后, 此时的region proposal已经和一开始的region proposal有了偏差, 在目标检测中问题不大, 但是在图像分割会有很大的误差, 因为mask是逐像素的
      • 全连接的参数使用SVD分解来加速算法

    • 流程图

    Faster R-CNN

    • Fast R-CNN速度还是太慢了, 通过selective search方法生成候选框的实现要比分类更耗时, Faster R-CNN不在使用selective search生成候选框, 而是通过一个RPN网络得出出候选框

    • RPN有anchor的概念, 原图经过卷积之后输入到RPN分支网络, RPN取slide window对feature maps进行滑动, 在slide window中的每一个像素都有9个anchor, 分别为1:1, 2:1, 1:2比例的, 还要判断anchor中有无物体, 有则保留, 没有则去掉, 再使用NMS去重, 得出了候选框, 剩余分布和Fast R-CNN一样

    • 流程图

    • 详细一点的

    • 别人的

    Mask R-CNN

    • Mask R-CNN可以理解为FPN-ResNet + Faster-RCNN, 把Faster-RCNN的RoIPooling改成了RoiAlign(提高mask的精度, 处理对齐问题, 采用双线性插值), 使用FPN-ResNet提取特征, 多一个分支来训练mask

    • 总的流程图

    • mask损失

      • 与FCN分割的损失不同, FCN是上采样得到和原图一样尺寸的图, 通道数为类别个数, 一口气对每个像素的多个类别进行softmax
      • 而Mask R-CNN不同, 则为了避免类之间的竞争, 采用sigmoid函数, 比较之后此类的损失, 而不是一口气直接比较多个类的损失

    池化

    SPPNet

    • 实现代码
    
    class SPPLayer(nn.Module):
    
        
        def __init__(self, sides):
            """
            Parameters
            ----------
            sides : array-like
                A list of side lengths
            """
            super(SPPLayer, self).__init__()
            self.sides = sides
        
        def forward(self, x):
            out = None
            for side in self.sides:
                ksize = tuple(map(lambda v: math.ceil(v / side), x.size()[2:]))
                strides = tuple(map(lambda v: math.floor(v / side), x.size()[2:]))
                paddings = (math.floor(ksize[0] * side - x.size()[2]), math.floor(ksize[1] * side - x.size()[3]))
                output = nn.MaxPool2d(ksize, strides, paddings)(x)
                if out is None:
                    out = output.view(-1)
                else:
                    out = t.cat([out, output.view(-1)])
            return out
    
    • 结构
      spp

    损失函数

    L1

    • 公式: (L_1={1over{m}}sum_{i=1}^{m}|h(x)-hat{y}|)
    • 一个样本且不求均值时的导数: (L'_1=pm{h'(x)})

    L2

    • 公式: (L_2={1over{m}}sum_{i=1}^m{(h(x)-hat{y})}^2)
    • 一个样本且不求均值时的导数: (L'_2=2h'(x)(h(x)-hat{y}))

    Smooth L1 Loss

    • 公式:

    [ Loss_{smooth}=egin{cases}0.5x^2 &|x|lt 0.5\ |x|-0.5 &otherwise end{cases} $$其中$x$是$h(x)-hat{y}$ + 和$L2$的图像差别 ![](https://img2018.cnblogs.com/blog/1418650/201907/1418650-20190708232908782-1956371615.png) + 由上图可知, 如果在训练的时候出现一个离群点, L2的只会特别的高, 对应的梯度也很高, 可能导致梯度爆炸, 而smooth loss即使是在离群点时, 梯度最大也才为1; smooth loss1与l1相比, 因为结合了l2, 收敛速度快, 对于异常值有很好的robust, 有在0处导数, 便于收敛 ## 采样 ### 上采样 + 转置卷积: 容易导致棋盘效应; 还要额外训练参数; 相比插值上采样较复杂 + 最近邻上采样]

  • 相关阅读:
    C语言计时
    time模块
    大端对齐 和小端对齐
    python之生成器与迭代器
    python之字符串反转
    简单排序
    Python学习笔记——切片
    Python学习笔记——函数(二)
    Python学习笔记——函数(一)
    Python学习笔记——字典(dict)
  • 原文地址:https://www.cnblogs.com/megachen/p/11154782.html
Copyright © 2020-2023  润新知