• CNN


    计算机视觉领域三大顶级国际会议:

    1. 国际计算机视觉和模式识别大会(Computer Vision and Pattern Recognition,CVPR)

    2. 国际计算机视觉大会(International Conference on Computer Vision,ICCV)

    3.欧洲计算机视觉大会(European Conference on Computer Vision,ECCV)

    LeNet  

    用于字符识别

    Alex-Net   

     使用ReLU激活函数;使用Dropout和数据增强减少过拟合;使用重叠的最大池化;LRN(Local Response Normalization)层,对局部神经元的活动创建竞争机制;CUDA训练加速;

     在所有的卷积层和全连接层之后,都应用了ReLU非线性函数。首先第一和第二个卷积层都应用ReLU非线性函数,然后进行局部标准化,最后执行pooling操作方法。

    数据增强使用的方法:镜像图像;随机裁剪原始图像;Dropout

    VGG-Net

    使用了更小的3*3卷积核和更深的网络,一方面可以减少参数,另一方面相当于进行了更多的非线性映射,可以增加网络的拟合/表达能力。VGG的作者认为两个3x3的卷积堆叠获得的感受野大小,相当一个5x5的卷积;而3个3x3卷积的堆叠获取到的感受野相当于一个7x7的卷积。这样可以增加非线性映射,也能很好地减少参数(例如7x7的参数为49个,而3个3x3的参数为27)

    相比AlexNet的3x3的池化核,VGG全部采用2x2的池化核。

    VGG网络第一层的通道数为64,后面每层都进行了翻倍,最多到512个通道,通道数的增加,使得更多的信息可以被提取出来。

     残差网络ResNet

    卷积神经网络的压缩

    低秩近似:将一个权重矩阵表示为多个低秩矩阵的组合。

    数据扩充

    图像水平翻转、随机抠取、尺度变换、旋转、色彩抖动、Fancy PCA、监督式数据扩充

    网络参数初始化

    在卷积神经网络求解时,常采用批处理的随机梯度下降法(mini-batch SGD),不同批处理之间按照无放回抽样遍历所有样本,遍历一次训练样本称为“一轮epoch”。

    Pooling汇合层:最大汇合、平均汇合、随机汇合

  • 相关阅读:
    htmlunit 基础01
    @Transactional 事务失效问题
    SQL优化总结
    单点登录实现过程
    常见的mybatis对应关系
    命名规范(Oracle数据库)
    12-5 作为可叠加修改的特质
    12-4 Ordered特质
    10 绘制螺旋示例
    10-6 参数化字段
  • 原文地址:https://www.cnblogs.com/larry-xia/p/12497327.html
Copyright © 2020-2023  润新知