• 22-2:卷积神经网络-池化


    1:池化层

    (1)Pooling(类似于downsampling)

    [注]leNet-5卷积神经网络中的Subsampling是向下采样中的隔行采样。而AlexNet之后的卷积神经网络则开始采用Max pooling或者是Avg sampling采样。

    (1.1)Max pooling最大采样

     (1.2)Avg pooling平均采样

     

     【注】pytorch中提供了两种采样方式。nn,MaxPool2d(pa1,stride=)参数1表示移动窗口的大小(x*x),stride表示步长。 

     (2)upsampling向上采样

     

     [注]之所以pytorch提供向上采样的函数,是因为python提供的主要针对numpy,其为了适应自己的tensor类型数据,故提供了向上采样的实现。

    【注】1.0版本之前对向上采样的提供使用的是:F.upsamplin()参数和1.0及以上F.interpolate中的参数相同。

    【注】F.interpolate(pa1,scale_factor=,mode=)pa1表示为上一层的输出,scale_factor表示扩大的倍数,mode表示扩大所使用的差值(其值可以为:'nearest','bi....','fri....')。

     (3)ReLU激活函数:进行矫正

     pytorch中两种风格的使用:1:layer=nn.ReLU(inplace=true)然后layer(x)。2:F.relu(x)

     [注]ReLu函数可以帮助过滤掉一些负数值,过滤之后的最小值为0.

    [注]inplace=true的意思是进行原地操作,可以节省运算内存。

    详细解释可以参考:https://www.jianshu.com/p/8385aa74e2de

  • 相关阅读:
    JMeter4.0的单机压测和集群压测简介
    接口自动化测试,完整入门篇
    jmeter实战---正则提取器
    压测必经之路,解读JMeter分布式
    JMeter线程组参数含义
    jmeter生成HTML性能测试报告
    SPP-Net、Atrous Convolution以及ASPP by Rose
    使用CNN进行角度估计
    Java相关书籍分享
    Code Conventions for the Java
  • 原文地址:https://www.cnblogs.com/jiafeng1996/p/15100658.html
Copyright © 2020-2023  润新知