zoukankan      html  css  js  c++  java
  • 论文-Deep Residual Learning for Image Recognition

    1、Introduction

      1)网络深度很重要

      Deep networks naturally integrate low/mid/highlevel features and classifiers in an end-to-end multilayer fashion, and the “levels” of features can be enriched by the number of stacked layers (depth). 

      2)层数的增加将导致梯度消失/爆炸,归一化初始值和中间层的归一化可以解决上述问题

      An obstacle to answering this question was the notorious problem of vanishing/exploding gradients [1, 9], which hamper convergence from the beginning.

      3)Plain and residual networks

      Plain networks将层简单地堆叠,类似VGG那样

      4)degradation 问题

      当更深层次的网络能够开始收敛时,一个退化的问题就暴露出来了:随着网络深度的增加,精度达到饱和(这可能并不奇怪),然后迅速退化。出乎意料的是,这种退化并不是由过拟合引起的,在一个合适的深度模型上增加更多的层会导致更高的训练误差。如果添加的非线性层可以作为对等映射,那么构造一个更深层次的模型的训练误差应该不大于其浅层的counterpart。退化问题表明由多个非线性逼近对等映射可能有困难。

          

      5)本文通过引入Deep Residual Learning来解决退化问题

      如果对等映射是最优的,那么就可以直接将中间的非线性层的参数置为零,即得到恒等映射。如果最优函数更接近于恒等映射而不是零映射,那么求解器就更容易找到与恒等映射相关的扰动,而不是将函数作为新的函数来学习。这样理论上随着网络层数的加深,引入这个结构并不会使得误差比浅层的网络更大,因为随着参数的优化,如果浅层网络已经逼近了最优值,那么之后的网络层相当于一个恒等式,即每一层的输入和输出相等,因此更深的层数不会额外增加训练误差。

         

    2、Deep Residual Learning

      1)Identity Mapping by Shortcuts 

        

        上式第一项称为residual mapping ,第二项称为shortcut connection。F(x)与x采用elementwise的形式进行相加,之后还会经过一个非线性层ReLU。如果输入输出width不相等,则可以采用下面的结构:

      

        其中Ws为一个线性映射。后面文中有提到,Ws可以用2种方法实现:(A)用 0 padding增加的维度(通道),即identity shortcut,(B)用1*1卷积实现,即projection shortcut。两种方法都使用2步长

       2)Network Architectures 

      采用与VGG类似的plain network进行比较。

      3)实现

      采用了图片增强,conv之后加BN,再ReLU。weight decay of 0.0001 and a momentum of 0.9

    3、Experiments on ImageNet

      1)与plain网络的对比(参数、操作数相等(不考虑旁路的相加))

          

          

       2)identity shortcut 和projection shortcut的对比

      

      ResNet-34 A在升维的地方使用 0 padding,ResNet-34 B在升维的地方使用projection shortcut,维数不变时使用identity shortcut;ResNet-34 C都用projection shortcut

      3)Deeper Bottleneck Architectures

      

      

      与shufflenet-V1结构对比如下:

      

    3、Experiments on CIFAR10

      1)网络结构设置

      

      2)训练环境设置

      

      [13] K. He, X. Zhang, S. Ren, and J. Sun. Delving deep into rectifiers:Surpassing human-level performance on imagenet classification. In ICCV, 2015 

      [24] C.-Y. Lee, S. Xie, P. Gallagher, Z. Zhang, and Z. Tu. Deeplysupervised nets. arXiv:1409.5185, 2014.


      3)实验结果

      We compare n = 3; 5; 7; 9, leading to 20, 32, 44, and 56-layer networks

      

      

  • 相关阅读:
    bootmgr is missing
    【转】ahci和IDE的区别
    win10系统故障代码:0xc000014c
    c++小数点后舍入
    关于类里再声明自身类实例的思考
    Java集合
    Python图片转字符画
    102. Binary Tree Level Order Traversal
    1041. Robot Bounded In Circle
    144. Binary Tree Preorder Traversal
  • 原文地址:https://www.cnblogs.com/wt-seu/p/12381770.html
Copyright © 2011-2022 走看看