• pytorch torch.nn 实现上采样——nn.Upsample


    Vision layers

    1)Upsample

    CLASS torch.nn.Upsample(size=None, scale_factor=None, mode='nearest', align_corners=None)

    上采样一个给定的多通道的 1D (temporal,如向量数据), 2D (spatial,如jpg、png等图像数据) or 3D (volumetric,如点云数据)数据
    假设输入数据的格式为minibatch x channels x [optional depth] x [optional height] x width。因此对于一个空间spatial输入,我们期待着4D张量的输入,即minibatch x channels x height x width。而对于体积volumetric输入,我们则期待着5D张量的输入,即minibatch x channels x depth x height x width

    对于上采样有效的算法分别有对 3D, 4D和 5D 张量输入起作用的 最近邻、线性,、双线性, 双三次(bicubic)和三线性(trilinear)插值算法

    你可以给定scale_factor来指定输出为输入的scale_factor倍或直接使用参数size指定目标输出的大小(但是不能同时制定两个)

    参数:

    • size (int or Tuple[int] or Tuple[int, int] or Tuple[int, int, int], optional) – 根据不同的输入类型制定的输出大小

    • scale_factor (float or Tuple[float] or Tuple[float, float] or Tuple[float, float, float], optional) – 指定输出为输入的多少倍数。如果输入为tuple,其也要制定为tuple类型

    • mode (str, optional) – 可使用的上采样算法,有'nearest', 'linear', 'bilinear', 'bicubic' and 'trilinear'. 默认使用'nearest'

    • align_corners (bool, optional) – 如果为True,输入的角像素将与输出张量对齐,因此将保存下来这些像素的值。仅当使用的算法为'linear', 'bilinear'or 'trilinear'时可以使用。默认设置为False

    输入输出形状:

    注意:

    当align_corners = True时,线性插值模式(线性、双线性、双三线性和三线性)不按比例对齐输出和输入像素,因此输出值可以依赖于输入的大小。这是0.3.1版本之前这些模式的默认行为。从那时起,默认行为是align_corners = False,如下图:

    上面的图是source pixel为4*4上采样为target pixel为8*8的两种情况,这就是对齐和不对齐的差别,会对齐左上角元素,即设置为align_corners = True时输入的左上角元素是一定等于输出的左上角元素。但是有时align_corners = False时左上角元素也会相等,官网上给的例子就不太能说明两者的不同(也没有试出不同的例子,大家理解这个概念就行了)

    如果您想下采样/常规调整大小,您应该使用interpolate()方法,这里的上采样方法已经不推荐使用了。

    举例:

    import torch
    from torch import nn
    input = torch.arange(1, 5, dtype=torch.float32).view(1, 1, 2, 2)
    input

    返回:

    tensor([[[[1., 2.],
              [3., 4.]]]])
    m = nn.Upsample(scale_factor=2, mode='nearest')
    m(input)

    返回:

    tensor([[[[1., 1., 2., 2.],
              [1., 1., 2., 2.],
              [3., 3., 4., 4.],
              [3., 3., 4., 4.]]]])
    m = nn.Upsample(scale_factor=2, mode='bilinear',align_corners=False)
    m(input)

    返回:

    tensor([[[[1.0000, 1.2500, 1.7500, 2.0000],
              [1.5000, 1.7500, 2.2500, 2.5000],
              [2.5000, 2.7500, 3.2500, 3.5000],
              [3.0000, 3.2500, 3.7500, 4.0000]]]])
    m = nn.Upsample(scale_factor=2, mode='bilinear',align_corners=True)
    m(input)

    返回:

    tensor([[[[1.0000, 1.3333, 1.6667, 2.0000],
              [1.6667, 2.0000, 2.3333, 2.6667],
              [2.3333, 2.6667, 3.0000, 3.3333],
              [3.0000, 3.3333, 3.6667, 4.0000]]]])
    m = nn.Upsample(size=(3,5), mode='bilinear',align_corners=True)
    m(input)

    返回:

    tensor([[[[1.0000, 1.2500, 1.5000, 1.7500, 2.0000],
              [2.0000, 2.2500, 2.5000, 2.7500, 3.0000],
              [3.0000, 3.2500, 3.5000, 3.7500, 4.0000]]]])

    如果你使用的数据都是JPG等图像数据,那么你就能够直接使用下面的用于2D数据的方法:

    2)UpsamplingNearest2d

    CLASS torch.nn.UpsamplingNearest2d(size=None, scale_factor=None)

    专门用于2D数据的线性插值算法,参数等跟上面的差不多,省略

    形状:

    举例:

    m = nn.UpsamplingNearest2d(scale_factor=2)
    m(input)

    input即上面例子的input,返回:

    tensor([[[[1., 1., 2., 2.],
              [1., 1., 2., 2.],
              [3., 3., 4., 4.],
              [3., 3., 4., 4.]]]])
    m = nn.UpsamplingNearest2d(size=(3,5))
    m(input)

    返回:

    tensor([[[[1., 1., 1., 2., 2.],
              [1., 1., 1., 2., 2.],
              [3., 3., 3., 4., 4.]]]])

    3)UpsamplingBilinear2d

    CLASS torch.nn.UpsamplingBilinear2d(size=None, scale_factor=None)

    专门用于2D数据的双线性插值算法,参数等跟上面的差不多,省略

    形状:

    注意:最好还是使用nn.functional.interpolate(..., mode='bilinear', align_corners=True)

    举例:

    m = nn.UpsamplingBilinear2d(scale_factor=2)
    m(input)

    返回:

    tensor([[[[1.0000, 1.3333, 1.6667, 2.0000],
              [1.6667, 2.0000, 2.3333, 2.6667],
              [2.3333, 2.6667, 3.0000, 3.3333],
              [3.0000, 3.3333, 3.6667, 4.0000]]]])
    m = nn.UpsamplingBilinear2d(size=(3,5))
    m(input)

    返回:

    tensor([[[[1.0000, 1.2500, 1.5000, 1.7500, 2.0000],
              [2.0000, 2.2500, 2.5000, 2.7500, 3.0000],
              [3.0000, 3.2500, 3.5000, 3.7500, 4.0000]]]])

    更复杂的例子可见:pytorch 不使用转置卷积来实现上采样

  • 相关阅读:
    CSS中em,rem的区别
    Bootstrap自学笔记
    lable标签的妙用
    Ajax
    基础小知识杂烩
    用CSS3画出一个立方体---转
    CSS3方法总汇
    HTML5 DOM扩展
    VS2010在C盘下生成的.iTrace文件解决办法 ,c盘偷偷的减少,心很烦啊,找了半天才知道是这个问题
    伪静态
  • 原文地址:https://www.cnblogs.com/wanghui-garcia/p/11399053.html
Copyright © 2020-2023  润新知