zoukankan      html  css  js  c++  java
  • 深度残差网络

    • 神经网络的层数决定了模型的容量
    • 网络层数加深,容易陷入局部最优解,梯度消失问题严重

    ResNet

    • 解决或缓解深层的神经网络训练中的梯度消失问题
    • 层数更深的网络反而具有更大的训练误差,很大程度归结于梯度消失问题
    • 误差传播涉及非常多的参数和导数的连乘,很容易导致梯度消失或者膨胀
    • ResNet
      • 既然离输入近的神经网络层较难训练,那么可以将它短接到更靠近输出的层
      • (x)经过两层的变换得到(F(x))
      • 短接后,两层的网络模块输出(H(x)=F(x)+x)
      • (F(x))被设计为只需要拟合(x)与目标输出( ilde{H}(x))的残差( ilde{H}(x))
      • 跳过的两层只需要拟合上层输出和目标之间的残差
  • 相关阅读:
    2019春第八周作业
    2019春第七周作业
    第六周作业
    币值转换
    打印沙漏
    秋季学期学习总结
    人生影响最大的三位老师
    自我介绍
    2018秋季学习总结
    自己
  • 原文地址:https://www.cnblogs.com/weilonghu/p/11922961.html
Copyright © 2011-2022 走看看