• 22-2:卷积神经网络-池化


    1:池化层

    (1)Pooling(类似于downsampling)

    [注]leNet-5卷积神经网络中的Subsampling是向下采样中的隔行采样。而AlexNet之后的卷积神经网络则开始采用Max pooling或者是Avg sampling采样。

    (1.1)Max pooling最大采样

     (1.2)Avg pooling平均采样

     

     【注】pytorch中提供了两种采样方式。nn,MaxPool2d(pa1,stride=)参数1表示移动窗口的大小(x*x),stride表示步长。 

     (2)upsampling向上采样

     

     [注]之所以pytorch提供向上采样的函数,是因为python提供的主要针对numpy,其为了适应自己的tensor类型数据,故提供了向上采样的实现。

    【注】1.0版本之前对向上采样的提供使用的是:F.upsamplin()参数和1.0及以上F.interpolate中的参数相同。

    【注】F.interpolate(pa1,scale_factor=,mode=)pa1表示为上一层的输出,scale_factor表示扩大的倍数,mode表示扩大所使用的差值(其值可以为:'nearest','bi....','fri....')。

     (3)ReLU激活函数:进行矫正

     pytorch中两种风格的使用:1:layer=nn.ReLU(inplace=true)然后layer(x)。2:F.relu(x)

     [注]ReLu函数可以帮助过滤掉一些负数值,过滤之后的最小值为0.

    [注]inplace=true的意思是进行原地操作,可以节省运算内存。

    详细解释可以参考:https://www.jianshu.com/p/8385aa74e2de

  • 相关阅读:
    唐寅 《桃花庵歌》
    asp.net 后台隐藏div
    dataset的用法
    C#中的DateTime类型加减
    discuz! x2.5 文章添加分享按钮
    asp.net学习小网站
    table固定行和表头
    aspx.net开源的画图组件
    Global.asax详解
    int.Parse() int.TryParse
  • 原文地址:https://www.cnblogs.com/jiafeng1996/p/15100658.html
Copyright © 2020-2023  润新知