• VDSR


    提出SRCNN问题

    • context未充分利用
    • Convergence 慢
    • Scale Factor 训练指定fator的模型再重新训练其他fator的模型低效

    context

    对于更大的scale-fator 需要更大的receptive-field(接受域,也就是过滤器),如果接受域学习了这张图像模式,也就能把这张图像重建成超分辨率图像,所以网络第一层是过滤器是 3 x 3 *64 

    往后每层的filter 大小为 (2D+1,2D+1),D为网络层数,第一层与最后一层的大小相同。 

    论文指出中央像素受周围像素所约束,所以类似SRCNN等crop的方法,将会导致边界信息不能很好的被周围像素推断,而作者则对input进行的padding再送入网络,这样也使得网络输出与输入相同。

    (这里与SRCNN另外一个预处理方式不同的就是crop时不crop重叠部分)

    Convergence

    一张高分辨图片包含了低频信息(低分辨率图片)与高频信息(残差图像与图像细节)

    论文指出SRCNN收敛慢的原因可能是SRCNN重建HR(重建高频信息)图像时重建了低频信息与高频信息,重建低频信息的过程类似自编码器,而本文则直接重建高频信息(残差图像与图像细节)

    设 x 为 低分辨率图像, y 为高分辨率图像 则  f(x) 为预测的 y 值,使用均方差损失函数  

                                                 

    因为输入与预测输出有很大相似,所以定义 r = y - x ,则损失函数 为:

                                               

    为了提高收敛速率,作者将学习速率初始化为 0.1 往后每20个epchos 降低 10倍,还使用了梯度剪枝

     Single-Scale

    大部分模型由指定的fator训练,对于特定的fator就重新训练,这很低效,作者把一个minibatch由不同缩放因子的64个sub-image组成放入网络训练,

    训练结果证明了由特定fator训练的模型再更大的fator上测试性能不佳,而由多个fator上处理再训练的模型,性能超过Bicubic

                      

    模型预处理方式与SRCNN大部分相同:bicubic先下采样,后上采样作为输入图像

  • 相关阅读:
    C# 桥接模式(Bridge)
    C# 中介者模式(Mediator)
    C# 命令模式(Command)
    C# 模板方法(TempleteMethod)
    C# 装饰模式(Decorate)
    C# 策略模式(Strategy)
    C# 职责链模式(Chain of Responsibility)
    C# 外观模式(Facade)
    C# 单例模式(Single)
    C# 原型模式(Prototype)
  • 原文地址:https://www.cnblogs.com/echoboy/p/10349410.html
Copyright © 2020-2023  润新知