zoukankan      html  css  js  c++  java
  • resnet的理解-- 面试笔记

         上周参加了XX大学研究生推免的面试,面试老爷问到了resnet主要解决了什么问题,我下意识的回答到解决了当网络加深的时候会出现的vanishing/exploding gradients,然后面试老爷的表情就很丰富。这两天推免名额到手了,翻了翻resnet的paper(Deep Residual Learning for Image Recognition Kaiming He Xiangyu Zhang Shaoqing Ren Jian Sun Microsoft Research),em....果然回答错了。

     论文地址:https://arxiv.org/pdf/1512.03385.pdf

    先放一段原文:

      大致就是随着深度的加深可能产生的vanishing/exploding gradients由normalized initialization和intermediate normalization解决了(读到的时候心理那叫一个刺激...)。残差网络主要解决了网络退化的问题(随着网络的深度增加,准确度反而下降了)。留下不学无术的眼泪。。。。

       针对这个问题,作者提出了一个Residual的结构:

    即增加一个identity mapping(恒等映射),将原始所需要学的函数H(x)转换成F(x)+x,而作者认为这两种表达的效果相同,但是优化的难度却并不相同,作者假设F(x)的优化 会比H(x)简单的多。这一想法也是源于图像处理中的残差向量编码,通过一个reformulation,将一个问题分解成多个尺度直接的残差问题,能够很好的起到优化训练的效果。 这个Residual block通过shortcut connection实现,通过shortcut将这个block的输入和输出进行一个element-wise的加叠,这个简单的加法并不会给网络增加额外的参数和计算量,同时却可以大大增加模型的训练速度、提高训练效果,并且当模型的层数加深时,这个简单的结构能够很好的解决退化问题。 

      面试的时候还提到了一个问题:残差网络的残差怎么来的,现在看了看论文,应该是从文献中的残差表示入手。留下不学无术的眼泪......

  • 相关阅读:
    关于《iBoard 电子学堂》的学习及进阶方式(精 转)
    OV7670 RAW输出 bayer 解码
    yuv和yCbCr的差异
    LeetCode--Anagrams
    LeetCode--N-Queens
    LeetCode--Gas Station
    GDB调试(转)
    LeetCode--Word Search
    Ptrace_scope的作用及设置
    LeetCode--Gray Code
  • 原文地址:https://www.cnblogs.com/z1141000271/p/9686465.html
Copyright © 2011-2022 走看看