• 理解CNN中的感受野(receptive-field)


    1. 阅读论文:Understanding the Effective Receptive Field in Deep Convolutional Neural Networks 理解感受野

    • 定义receptive field, or field of view (感受野)

    A unit in convolutional networks only depends on a region of the input. This region in the input is the receptive field for that unit. (一个神经节点只从输入中的一个局部区域中获取信息,这个局部区域称为当前神经节点的感受野)。由于输入中感受野之外的区域不影响当前神经节点的值,所以要合理地控制感受野的大小,让感受野覆盖整个相关的区域,特别是在一些密集预测的任务上,比如:语义分割,深度估计和光流估计等任务。

    定义--补充:
    在卷积神经网络中,感受野的定义是 卷积神经网络每一层输出的特征图(feature map)上的像素点在原始图像上映射的区域大小。 ——博客园
    在机器视觉领域的深度神经网络中有一个概念叫做感受野,用来表示网络内部的不同位置的神经元对原图像的感受范围的大小。 ——蓝荣祎
    大家知道现在CNN深度学习越来越深,为了压缩计算量,越到后面的层数往往feature size越来越小,但参与“决策”往往是最后几层网络(当然有FPN等神迹)因此如何保证小的网络仍然具有全局性是构建CNN网络的一个重要依据,感受野便是一个考量feature map中每个神经元具有多少全局性的指标。
    
    • 增大感受野的操作
    1. 增加网络的层数,加深网络深度。理论上可以线性地增大感受野,每一层产生的感受野的增量为卷积核的大小。
    2. 下采样: 下采样可以成倍地增大感受野。
    3. dilate :dilate操作可以成倍地增大感受野。

    注:VGG和ResNet等使用了1,2。 deeplab系列额外使用了3。

    • 论文的主要观点:
    1. 感受野中的像素对神经节点输出的贡献是不一样的,更具体一些是:感受野中心的像素的贡献更大些。理由:Forward pass过程:中心像素有更多的路径将该像素的信息传递给神经节点,边缘的像素有较少的路径将其像素信息传递给神经节点。相似地, Backward pass过程:感受野中心像素从相应的神经节点获取的梯度也更多。
    2. 理论感受野区域中的像素的贡献符合Gaussian分布。由于Gaussian分布从中心高边快速衰减,有效感受野只是是理论感受野的一部分。
    • 结论:
    1. 卷积核权重均匀分布和随机分布时,有效感受野服从(近似服从)Gaussian分布。
    2. ReLU操作的加入也会使得有效感受野服从(近似服从)Gaussian分布。
    3. dropout的加入不会改变有效感受野的Gaussian分布
    4. 下采样和dilation 会增加有效感受野的大小,下采样效果更明显。
    5. skip-connections会减小有效感受野的大小。
    6. 只包含卷积层的情况下,随着卷积层数 [公式] 的增加有效感受野 [公式] [公式] 倍增加。与理论感受野相比,有效感受野 [公式] [公式] 缩小。
    • 减弱有效感受野Gaussian分布带来的损失的方法(增大有效感受野的方法)
    • (1)修改权重的初始化:减少卷积核中心的参数初始化的scale,增大卷积核边缘参数初始化的scale。不论scale策略如何,有效感受野Gaussian分布的情况仍不能解决。
      (2)改变CNN结构:使用dilation操作稀疏连接输入和卷积核,使用非矩形(no grid-like)的稀疏连接。

    理论感受野大小的计算

    在学习计算感受野之前,先可视化一下感受野吧。举一个例子,原始图像为 [公式] ,卷积核(Kernel Size)为 [公式] ,padding 为 [公式] ,stride为 [公式] ,依照此卷积规则,连续做两次卷积。熟悉卷积过程的朋友都知道第一次卷积结果是 [公式] 大小的feature map,第二次卷积结果是 [公式] 大小的feature map。整个过程如图所示:

     第一次卷积得到3*3的 feature map,RF为3*3

     

     第二次卷积得到2*2的 feature map

     

     黄色feature map对应的感受野是7*7大小

    如图所示,第一层卷积结束后,感受野是3*3。在第二层卷积结束了,感受野是7*7。

    --理论感受野大小的计算公式

    1)这种方式为从后往前推,即计算哪层的感受野,就把它当做网络的最后一层,然后往前推导:

     

    【注】:

    最后一层(卷积层或池化层)输出特征图感受野的大小等于卷积核的大小。
    第i层卷积层的感受野大小和第i层的卷积核大小和步长有关系,同时也与(i+1)层感受野大小有关。
    计算感受野的大小时忽略了图像边缘的影响,即不考虑padding的大小。

     2)这种是从前往后推,逐层计算感受野的大小(还计算了神经元中心坐标):

    2. 验证RF Size计算

    FOMORO AI

    三个高级工程师搞的网站,可以简单的输入网络参数,就直接把你的感受野计算出来。

    参考:

    1、Paper Reading: 理解感受野

    2、卷积神经网络中感受野的详细介绍

    3、卷积神经网络中的感受野计算详细指南

    4、对CNN感受野一些理解

  • 相关阅读:
    wait waitpid
    达梦备份还原
    sigprocmask阻塞信号
    sigaction信号处理
    dd命令
    linux系统启动过程
    cpio建立、还原备份档
    configure详解
    Git入门基础教程
    一篇文章了解Github和Git教程
  • 原文地址:https://www.cnblogs.com/carsonzhu/p/11884501.html
Copyright © 2020-2023  润新知