• CNN 卷积神经网络



    卷积神经网络:Convolutional Neural Networks
    神经网络基础上的改进版本。


    用途

    主要用于 计算机视觉领域,如 检测、追踪、分类、检索、分割;医学任务:细胞检测,人体透视图,对动态图进行识别等;无人驾驶。


    检索:输入一张图像,判断是什么,返回有相似度的其他图片。
    如上传 梅花,返回其他梅花图片;淘宝找同款。


    超分辨率重构:让神经网络学习,怎么样让图片更清晰。



    传统神经网络 特征提取的问题:
    中间矩阵比较大。


    和传统神经网络的区别

    直观来看,更立体。
    传统神经网络 NN 输入 784个特征;
    CNN 输入 28 * 28 * 1 ,三维的长方体矩阵。不会把数据拉成向量,而是直接对图像数据进行特征提取。
    CNN 还有 深度 的概念。


    整体架构

    • 数据输入层 Input layer
    • 卷积计算层 CONV layer:提取特征
    • ReLU激励层 ReLU layer
    • 池化层 Pooling layer:压缩特征
    • 全连接层 FC layer

    卷积


    对于 RGB 彩色图片,一般会单独对每个通道单独做卷积,然后再加到一起


    卷积层的输出宽度、深度

    1. 输出深度由过滤器个数决定
    2. 输出宽度
      以输入的体积为例 H1 * W1 * D1
      四个超参数
    • K: Filter 数量
    • F:Filter 大小
    • S:步长
    • P:零填充的大小

    输出的体积是 $ H2 * W2 * D2 ( )H2 = (H1 - F + 2P)/S + 1 ( )W2 = (H1 - F + 2P)/S + 1 ( )D2 = K$


    堆叠的卷积层


    卷积层涉及参数

    • 步长
    • 核尺寸
    • 边缘填充
    • 卷积核个数

    步长

    图片常用步长为 1,当然这样比较慢。


    卷积核尺寸

    最小为 3*3


    边缘填充 pad

    一般用 0 进行填充,只是扩充;如果填充1,会有影响。
    所以也叫 zero-padding。
    一般填 1 圈。


    文本数据的填充:一般也会填充0。


    卷积核个数

    想要得到多少个特征图,就使用多少个卷积核个数。10、20、30、40 都行。
    一般每个卷积核里面的数值都是不一样的。


    卷积结果计算

    长度:$ H_2 = frac{H_1 + 2P - F_h}{S} + 1$

    宽度:$ W_2 = frac{W_1 + 2P - F_w}{S} + 1$

    • $W_1,H_1 $ 表示输入的宽度、长度;
    • $W_2,H_2 $ 表示输出特征图的宽度、长度;
    • F:卷积核长和宽的大小;
    • S:滑动窗口的步长;
    • P:边界填充(加几圈0)

    如果输入数据是 32323 的图像,用10个 553的filter来进行卷积操作,指定步长为1,边界填充为2,最终输入的规模为?

    (32-5+22)/1 + 1 = 32,所以输出规模为3232*10,经过卷积操作后也可以保持特征图长度、宽度不变。


    卷积参数的共享

    对于不同区域,卷积核内的值一般也应该不同,效果更好。但如果每个都做卷积,数据太多。所以使用卷积共享理念。

    参数比全连接的方式少得多。


    池化层

    卷积的时候会尽可能多的提取特征,但不是所有特征都是有效的,这时就会用池化层来做有选择性的压缩(下采样)。


    两种下采样方式:

    • 最大值下采样 MAX POOLING
    • 平均值下采样 AVE POOLING;没有 Max 效果好,现在用的比较少。

    池化层没有涉及到任何矩阵的计算,只是筛选、压缩、过滤。



    • 卷积层都和 RELU 搭配在一起
    • 两次卷积一次池化
    • 卷积和池化,只能做特征提取;要想得到结果,还是需要全连接层(FC);需要将原来的三维,转化为特征向量
      如果将 323210 的图像转化为 5分类任务,全连接层的 W 尺寸为 (10240,5)
    • 全连接层 将 两层之间所有神经元都有权重连接;
    • 带参数计算(权重、偏置,去反向传播更新数据)的才能称为一层;CONV 和 FC 带,RELU 和 POOL 不带参数计算。
      所以上图为 7 层神经网络。

    特征图变化


    经典网络

    Alexnet 是12年夺冠的网络,已过时。
    问题:卷积核 11*11,太大;pad 为 0;有8层。LRN 层没用。

    Vgg 为14年时改进了的网络。
    所有卷积大小均为 3*3;有16--19层网络;
    特点:上一次卷积pool 损失的信息,会在下一次卷积的时候,用特征图的个数弥补长宽损失;
    缺点:更深、卷积更细致;耗时比Alexnet 长;以天为单位。

    深度学习并不是层数越多越好。


    15年中国作者提出 Resnet(残差网络),同等映射,将效果不好的层 权重参数设置为0 来不使用;
    比如 A--B--C,B的效果不好,直接让 A 连到C;
    实现 既把层数堆叠起来,又不让差的层影响作用。

    Resnet 解决方法


    这样保底,至少学习完不会比原来差;所以 Resnet 目前是首选。

    Resnet 效果

    Resnet 可以看做特征提取,不建议当成分类网络。因为分类还是回归,取决于损失函数和最后的层怎么连的。
    Resnet 是个很通用的网络。


    感受野

    后一层可以看见前一层多少(前一层多少数据参与计算得到的)。
    如 11 可以看到前一层的 33,33 可以看到前一层的 55;


    问题:能不能用大核代替小核?
    如果堆叠3个 (3*3)的卷积层, 并且保持滑动窗口步长为1,其感受野就是(7*7)的了,这跟一个使用(7*7)卷积核的结果是一样的,那为什么非要堆叠3个小卷积呢?

    假设输入大小都是 (H*W*C),并且都使用C个卷积核(得到C个特征图),可以来计算一下其各自所需参数:
    (1个 7*7 卷积核所需参数 = C * (7 * 7 * C)= 49 C^2)

    (3个 3*3 卷积核所需参数 = 3 * C * (3 * 3 * C)= 27 C^2)

    很明显,堆叠小的卷积核所需的参数更少一些,并且卷积过程越多,特征提取也会越细致,加入的非线性变换(RELU)也随着增多,还不会增大权重参数个数,这就是VGG网络的基本出发点,用小的卷积核来完成体特征提取操作。


    自动编码器




  • 相关阅读:
    MPLS TE 配置与各大属性调整
    Net学习日记_基础提高_9
    Net学习日记_基础提高_8
    Net学习日记_基础提高_7
    Net学习日记_基础提高_6
    Net学习日记_基础提高_5
    Net学习日记_基础提高_4
    Net学习日记_基础提高_3
    Net学习日记_基础提高_2
    Net学习日记_基础提高_1
  • 原文地址:https://www.cnblogs.com/fldev/p/14360217.html
Copyright © 2020-2023  润新知