zoukankan      html  css  js  c++  java
  • VDSR

    提出SRCNN问题

    • context未充分利用
    • Convergence 慢
    • Scale Factor 训练指定fator的模型再重新训练其他fator的模型低效

    context

    对于更大的scale-fator 需要更大的receptive-field(接受域,也就是过滤器),如果接受域学习了这张图像模式,也就能把这张图像重建成超分辨率图像,所以网络第一层是过滤器是 3 x 3 *64 

    往后每层的filter 大小为 (2D+1,2D+1),D为网络层数,第一层与最后一层的大小相同。 

    论文指出中央像素受周围像素所约束,所以类似SRCNN等crop的方法,将会导致边界信息不能很好的被周围像素推断,而作者则对input进行的padding再送入网络,这样也使得网络输出与输入相同。

    (这里与SRCNN另外一个预处理方式不同的就是crop时不crop重叠部分)

    Convergence

    一张高分辨图片包含了低频信息(低分辨率图片)与高频信息(残差图像与图像细节)

    论文指出SRCNN收敛慢的原因可能是SRCNN重建HR(重建高频信息)图像时重建了低频信息与高频信息,重建低频信息的过程类似自编码器,而本文则直接重建高频信息(残差图像与图像细节)

    设 x 为 低分辨率图像, y 为高分辨率图像 则  f(x) 为预测的 y 值,使用均方差损失函数  

                                                 

    因为输入与预测输出有很大相似,所以定义 r = y - x ,则损失函数 为:

                                               

    为了提高收敛速率,作者将学习速率初始化为 0.1 往后每20个epchos 降低 10倍,还使用了梯度剪枝

     Single-Scale

    大部分模型由指定的fator训练,对于特定的fator就重新训练,这很低效,作者把一个minibatch由不同缩放因子的64个sub-image组成放入网络训练,

    训练结果证明了由特定fator训练的模型再更大的fator上测试性能不佳,而由多个fator上处理再训练的模型,性能超过Bicubic

                      

    模型预处理方式与SRCNN大部分相同:bicubic先下采样,后上采样作为输入图像

  • 相关阅读:
    简单的HelloWorld
    jsp获取绝对路径
    EasyUI validType属性
    Django meida(admin后台上传图片并可访问)
    postgresql char 与 varchar的区别
    git pull 源成分支遇到“There is no tracking information for the current branch.”错误
    Centos安装Pillow模块出错解决办法
    centos7网络配置
    表格排序插件tablesorter的初步使用介绍
    linux编译安装指定版本的python
  • 原文地址:https://www.cnblogs.com/echoboy/p/10349410.html
Copyright © 2011-2022 走看看