转自:http://blog.cvmarcher.com/posts/2015/05/17/cnn-trick/
这篇文章主要讲一下Convolutional Neural Network(CNN)里面的一些概念以及技巧。
Receptive Field (感受野)
这是一个非常重要的概念,receptive field往往是描述两个feature maps A/B上神经元的关系,假设从A经过若干个操作得到B,这时候B上的一个区域areabareab只会跟a上的一个区域相关areaaareaa,这时候areaaareaa成为areabareab的感受野。用图片来表示:
在上图里面,map 3里1x1的区域对应map 2的receptive field是那个红色的7x7的区域,而map 2里7x7的区域对应于map 1的receptive field是蓝色的11x11的区域,所以map 3里1x1的区域对应map 1的receptive field是蓝色的11x11的区域。
那么很容易得出来,receptive field的计算公式如下:
- 对于Convolution/Pooling layer:
其中riri表示第ii层layer的输入的某个区域,sisi表示第ii层layer的步长,kiki表示kernel size,注意,不需要考虑padding size。
- 对于Neuron layer(ReLU/Sigmoid/…)
Coordinate Mapping
通常,我们需要知道网络里面任意两个feature map之间的坐标映射关系,如下图,我们想得到map 3上的点p3p3映射回map 2所在的位置p2p2。
计算公式如下:
- 对于Convolution/Pooling layer:
其中pipi表示第ii层layer的输入的某个点,sisi表示第ii层layer的步长,kiki表示kernel size,paddingipaddingi
- 对于Neuron layer(ReLU/Sigmoid/…)
上面是计算任意一个layer输入输出的坐标映射关系,如果是计算任意feature map之间的关系,只需要用简单的组合就可以得到,下图是一个简单的例子:
Convolutionalize (卷积化)
最近掀起了FCN(全卷积网络)风,这种网络里面不包括全连接层(fully connected layer)。
卷积层跟全连接层的区别
卷积层的操作跟传统的滑窗(sliding windows)很相似,把kernel作用于输入的不同的区域然后产生对应的特征图,由于这样的性质,给定一个卷积层,它并不要求输入是固定大小的,它可能根据输入大小的不同而产生大小不一样的特征图。
全连接层的操作是把输入拉成一个一维的向量,然后对这一维的向量进行点乘,这就要求输入大小是固定的。
那么如果使用一个包含fc层的模型(如AlexNet)就必须使用固定大小的输入,其实有时候这是非常不方便以及不合理的,比如下图,如果我要把红框的塔输入网络,就必须得对它进行变成,假设是放到AlexNet里面,因为输入是224x224,那么就会对图片产生变形。
那么有没有办法使得网络可以接受任意的输入?实际上是可以的,只需要把全连接层变成卷积层,这就是所谓的卷积化。这里需要证明卷积化的等价性。直观上理解,卷积跟全连接都是一个点乘的操作,区别在于卷积是作用在一个局部的区域,而全连接是对于整个输入而言,那么只要把卷积作用的区域扩大为整个输入,那就变成全连接了,我就不给出形式化定义了。所以我们只需要把卷积核变成跟输入的一个map的大小一样就可以了,这样的话就相当于使得卷积跟全连接层的参数一样多。举个例子,比如AlexNet,fc6的输入是256x6x6,那么这时候只需要把fc6变成是卷积核为6x6的卷积层就好了。
例子:(1) 用全连接的: full-connected.prototxt,(2) 改成全卷积:full-conv.prototxt