zoukankan      html  css  js  c++  java
  • 深度学习基础网络 ResNet

    Highway Networks

    论文地址:arXiv:1505.00387 [cs.LG] (ICML 2015),全文:Training Very Deep Networks( arXiv:1507.06228 )

    基于梯度下降的算法在网络层数增加时训练越来越困难(并非是梯度消失的问题,因为batch norm解决梯度消失问题).论文受 RNN 中的 LSTM、GRU 的 gate 机制的启发,去掉每一层循环的序列输入,去掉 reset gate (不需要遗忘历史信息),仍使用 gate 控制前一次输出与当前层激活函数之后的输出的融合比例,从而提出了highway networks,加入了称为 information high-ways的shortcut连接,使得信息可以跨层直接原样传递.这使得网络深度理论上几乎可以是无限.

    传统网络做的非线性转换(通常是仿射变换+非线性激活函数)是:

    [y = H(x,W_H) ag 1 ]

    highway network添加了两个非线性转换: transform gate (T(x,W_T)) ,carry gate (C(x,W_C)):

    [y = H(x,W_H)cdot T(x,W_T) +xcdot C(x,W_C) ag 2 ]

    (C = 1 − T),得到

    [y = H(x,W_H)cdot T(x,W_T) +xcdot (1-T(x,W_T)) ag 3 ]

    (T(x,W_T)=0)时,(y=x);当(T(x,W_T)=1)时,(y=H(x,W_H)).因此这个gate可以灵活地控制网络的行为.直观的理解就是每层不完全做非线性特征变换了,将原始特征直接添加到这一层,更有弹性一些.

    上边的公式(3)要求$x,y, H(x,W_H),T(x,W_T) $是相同的大小.对于大小不匹配的情况,采用对x 下采样/0值填充 的方式,另外还可使用额外的网络改变x的维度.

    论文中设置(T(x) = σ(W_T^Tx+b_T)∈ (0,1),∀x ∈ R).

    Highway network学习之后自动学习哪些层需要哪些不需要.而ResNet是直接(等比例)相加.

    ResNet

    论文(Deep Residual Learning for Image Recognition,CVPR 2016)

    ResNet与Highway Networks的区别是Highway Networks增加了额外的参数,而ResNet不需要;Highway Networks,当carry gate接近于0时,残差功能接近关闭状态.而ResNet的残差函数总是开启.

    ResNet 的动机是网络degradation退化问题,即传统网络随着层数增多,准确率不升反降.原因是当模型变复杂时,SGD的优化变得更加困难.

    net-degradation
    图 Cifar-10 上的training/testing error. 网络从20层加到56层,error却上升了。

    优势:ResNet使用Identity mapping在不额外增加参数的情况下,收敛速度更快.

    Identity mapping(恒等映射)

    在网络中某一位置添加一条 shortcut connection,将前层的特征直接传递过来,这个新连接称为Identity mapping.如下图所示:

    residual-block

    Identity mapping反向求导时正好是单位矩阵I.

    假设优化残差映射F(x) 比优化原来的映射 H(x)容易(实验结果证实了这一点)。F(x)+x 可以通过 shortcut connections 来实现,如下图所示:

    如果(mathbb x)(mathcal F)的维度相同,那么:

    [mathbb y=mathcal F(mathbb x,{W_i})+mathbb x ag 1 ]

    如果不相同,则需要对shortcut connection的x进行线性投射使维度相同,从而能够相加:

    [mathbb y=mathcal F(mathbb x,{W_i})+W_smathbb x ag 2 ]

    加法操作作用的两个tensor具有相同的结构大小,在channel方向上将对应的feature map相加合并.

    Plain Network

    Plain Network 主要是受 VGG 网络启发,主要采用3x3滤波器,遵循两个设计原则:

    1. 输出相同特征图尺寸的卷积层,有相同个数的滤波器(stride=1使得输出尺寸不变)
    2. 通过stride=2降采样后特征图尺寸缩小一半,增加一倍的滤波器个数使每层卷积的计算复杂度相同(以特征图大小56->28为例,56的卷积操作数为(56x56x64)x(3x3x64),而64的卷积操作数为(28x28x128)x(3x3x128),计算量相等,当然stride=2的conv层计算量减半).

    Residual Network

    在 plain network 中加入 shortcut connections 构成了ResNet.对于shortcut的连接方式,论文提出了三个选项:

    A. 使用恒等映射,如果residual block的输入输出维度不一致,对增加的维度用0来填充;

    B. 在block输入输出维度一致时使用恒等映射,不一致时使用线性投影以保证维度一致(使用一层Conv+BatchNorm即可);

    C. 对于所有的block均使用线性投影。

    对这三个选项都进行了实验,发现虽然C的效果好于B的效果好于A的效果,但是差距很小,因此线性投影并不是必需的,而使用0填充时,可以保证模型的复杂度最低,这对于更深的网络是更加有利的。并且由于A方法不需要额外的参数,所以在层数较高时选择使用A.

    Deeper Bottleneck结构:

    对于更深的网络使用三层的残差结构,如下图所示,使用两个1x1的卷积先降维再增加维度,减少了3x3卷积层的个数及其输入输出维度,这个较小维度的3x3卷积即为bottleneck.图示的两种结构设计有相近的时间复杂度.

    deeper-residual-func

    无参数的Identity shortcut对于bottleneck结构尤为重要,如果替换成有参数的投射,模型大小和复杂度将会增加.

    论文中给出的18,34,50,101,152层网络如下表所示:

    ResNet-arch
    Plain Network,Residual Network与VGG-19的区别:
    ResNet34

    关于degradation

    论文指出网络的退化不太可能是梯度消失造成的,因为网络中使用了BatchNorm层来保持信号的传播.具体原因尚不明确,需要后续研究.

    实验发现通过更多的迭代次数(3x),仍然是degradation.

    ResNet解读

    参考论文作者另一篇论文Identity Mappings in Deep Residual Networks对ResNet的解读,

    residual-block

    残差网络单元其中可以分解成右图的形式,从图中可以看出,残差网络其实是由多种路径组合的一个网络,直白了说,残差网络其实是很多并行子网络的组合,整个残差网络其实相当于一个多人投票系统(Ensembling)。

    ResNet只是表面上看起来很深,事实上网络却很浅。
    所示ResNet真的解决了深度网络的梯度消失的问题了吗?似乎没有,ResNet其实就是一个多人投票系统。

    代码实现

    caffe中实现特征的加法,用Eltwise层的SUM operation即可:

    layer {
      name: "Eltwise3"
      type: "Eltwise"
      bottom: "Eltwise2"
      bottom: "Convolution7"
      top: "Eltwise3"
      eltwise_param {
        operation: SUM
      }
    }
    
  • 相关阅读:
    Lambda表达式
    工具类:mybatis中使用Threadlocal开启session及关闭session
    构造函数
    window phone ListBox多选
    ZOJ 3681 ZJU2013年01月月赛F题 E Cup 2
    2012百度之星冬季赛第四场第二题 度熊的复仇
    HDU 4476 HDOJ Cut the rope
    HDU 4475 HDOJ Downward paths
    2012百度之星冬季赛第二场第二题 消去游戏I
    ZOJ 3684 ZJU2013年01月月赛I题 Destroy
  • 原文地址:https://www.cnblogs.com/makefile/p/ResNet.html
Copyright © 2011-2022 走看看