zoukankan      html  css  js  c++  java
  • 机器学习知识点整理(三)

    十一、深度学习基础

    1.为什么必须在神经网络中引入非线性?

     2.ReLU在零点不可导,那么在反向传播中怎么处理?

    ReLU虽然在零点不可导,但是我们在做反向传播的计算时,对ReLu这个函数的导数分情况讨论,即ReLU在零点时人为地给它赋予一个导数,比如0或者1。例如在下面的ReLU的反向传播函数实现中,将ReLU在零点位置的导数设置为0。

     

     3.ReLu有哪些优缺点

    优点:
      1). 使用 ReLU 的 SGD 算法的收敛速度比 sigmoid 和 tanh 快;
      2.) 在 x > 0 上,不会出现梯度饱和,梯度消失的问题。
      3.) 计算复杂度低,不需要进行指数运算,只要一个阈值(0)就可以得到激活值。
    缺点:
      1.) ReLU 的输出不是 0 均值的,它将小于 0 的值都置为 0; 使得所有参数的更新方
    向都相同,导致了 ZigZag 现象。
      2.) Dead ReLU Problem (ReLU 神经元坏死现象):某些神经元可能永远不被激活,
    导致相应参数永远不会被更新(在负数部分,梯度为 0)
      3.) ReLU 不会对数据做幅度压缩,所以数据的幅度会随着模型层数的增加不断扩
    张。
    注: ZigZag 现象指的是,模型中所有的参数在一次梯度更新的过程中,更新方向相
    同,即同为正或者同为负。这就导致了梯度更新图像呈现 Z 字形,进而导致梯度更新
    效率比较低。

    4.Batch Normalization解决了什么问题

     5.

     

     6.

     

     

     

     

    7.

     

     

    8.

     

    9.

     

    10.

     

    11.

     

     

     

     十二、CV

    1.

     2.

     3.

     4.

     5.

     

     6.

     

     

     

     7.

     8.

     9.

     

  • 相关阅读:
    android视频录制
    UIWebView 缓存
    (Detected problems with API compatibility(visit g.co/dev/appcompat for more info)
    二、为什么要安装jdk?
    一、java为什么叫java?
    jstl标签
    J2EE(八)——myeclipse开发servlet
    J2EE(七)——myeclipse开发servlet
    J2EE(六)——servlet生命周期
    J2EE(五)——servlet初识
  • 原文地址:https://www.cnblogs.com/irvingluo/p/14062240.html
Copyright © 2011-2022 走看看