zoukankan      html  css  js  c++  java
  • 论文笔记:ESPCN

    CVPR2016

      神经网络学习非线性关系的灵活性对于处理SR问题很合适。

    1.文章想要解决的问题  

      如果在在网络之前通过插值的方法将LR图像上采样有两个缺点:一是计算复杂度;二是插值算法通常不会引入用于解决不适定重建问题的额外信息。而转置卷积进行上采样不过是插值方法的特殊情况。

    2.解决的方法

      通过在最后一层引入efficient sub-pixel convolution layer来进行upscaling操作。这样做有两个好处:1.降低计算复杂度;2.以可学习的filter取代固定插值filter,而且这有利于更明确地从LR图像中学习。

    1.这篇论文的主要假设是什么?(在什么情况下是有效的),这假设在现实中有多容易成立

      LR图像是HR图像经过模糊(低通滤波器),下采样,加噪处理后的图像。

      多数的高频信息是冗余的,因此可以通过低频部分准确地重建
    2.在这些假设下,这篇论文有什么好处

      1.由于输入神经网络的是LR图像,因此各层在LR空间进行。计算复杂度得到了大幅优化

      2.可以学得的多个放大滤波器,而不是仅仅一个。重建精读更高。

    3.这些好处主要表现在哪些公式的哪些项目的简化上。

      将计算复杂度公式中的$S_{HR}$简化为$S_{LR}$
    4.这一派的主要缺点有哪些

  • 相关阅读:
    物料主档的屏幕增强
    删除请求号(网上转载)
    Echarts X轴内容过长自动隐藏,鼠标移动上去显示全部名称方法
    mscms学习
    java 基础(泛型)
    java 基础(枚举类)
    java 基础(抽象类)
    java 基础(单例)
    android项目杂记
    Android Studio--学习系列(3)发版
  • 原文地址:https://www.cnblogs.com/cs-zzc/p/11799609.html
Copyright © 2011-2022 走看看