zoukankan      html  css  js  c++  java
  • ReLU函数

    Rectifier(neural networks)

    在人工神经网络中,rectfier(整流器,校正器)是一个激活函数,它的定义是:参数中为正的部分。

    {displaystyle f(x)=x^{+}=max(0,x)},

    其中,x是神经元的输入。这也被称为ramp function(斜坡函数),类似于电气工程中半波整流。

    由来:

    2000年由Hahnloser et al等人首次将该激活函数引入动态网络中,具有强烈的生物学动机和数学理论。

    此激活函数在 convolutional networks中被广泛应用,比logistic sigmoid更有效和实用。

    rectfier是2017年深度神经网络中最流行的激活函数。

    ReLU:

    采用rectifier的单元被称为rectfier linear unit(ReLU)

    rectifier的平滑近似是analytic function:

    {displaystyle f(x)=log(1+exp x),}

    被称为softplus function。它的偏导数是{displaystyle f'(x)=exp x/(1+exp x)=1/(1+exp(-x))} 即逻辑函数

    Rectified linear units在computer vision,speech recognition 等深度神经网络中有广泛应用。

    Plot of the rectifier (blue) and softplus (green) functions near x = 0

    Variants:

    Noisy ReLUs

    Rectfier linear units可以被扩展成包含Gaussian noise,

    f(x)=max(0,x+Y), with Ysim {mathcal {N}}(0,sigma (x))

    Noisy ReLUs成功应用在一些计算机视觉任务上。

    Leaky ReLUs

    Leaky ReLUs allow a small, non-zero gradient when the unit is not active.

    Parametric ReLUs将coefficient of leakage(泄露系数)转化为与其它神经网络参数一起学习的参数

    注意,如果a<=1,那么它等价于

       就与maxout networks有关

    ELUs:

    Exponential linear units try to make the mean activations closer to zero which speeds up learning. It has been shown that ELUs can obtain higher classification accuracy than ReLUs

     

    a是需要调的参数,且a>=0

    Advantages

     请参考

     https://en.wikipedia.org/wiki/Rectifier_(neural_networks)

    Potential problems

     请参考

     https://en.wikipedia.org/wiki/Rectifier_(neural_networks)

    如有疑问请联系我,写的不对的地方请联系我进行更改,感谢~ QQ:1968380831
  • 相关阅读:
    Pytest中参数化之Excel文件实战
    PyCharm 专业版 2018激活(pycharm-professional-2018.2.4.exe)
    python语言编写一个接口测试的例子,涉及切割获取数据,读取表格数据,将结果写入表格中
    webdriver之UI界面下拉框的选择
    git的安装与详细应用
    安装jenkins
    python对数据库mysql的操作(增删改查)
    批量执行测试用例
    面向对象中多态的讲解+工厂设计模式的应用与讲解
    面向对象
  • 原文地址:https://www.cnblogs.com/1zhangwenjing/p/8227454.html
Copyright © 2011-2022 走看看