zoukankan      html  css  js  c++  java
  • 神经网络

    面向全连接网络:Full Connected Forward Network

    基础神经元(neural、cell、unit)


    神经元是构成神经网络的基础单元

    一个独立的神经元的组成 {n,wi,b,h}

    输入:n维向量X

    线性加权:z=w0*b + w1*x1 + w2*x2 + ...  +wn*xn  (b为偏置)

    激活函数:a=h(z) ,要求非线性并且容易求导数

    输出标量:a

    激活函数

    1、sigmoid函数(曾经是常用的激活函数,但是现在一般用在输出层,中间层很少使用)

    h(z)=1/(1+e-z)

    缺点:1、两头过于平坦,造成梯度消失问题

       2、输出值域不对称

    2、tanh函数(曾经是常用的激活函数,中间层使用较少,比sigmoid函数效果好)

    缺点:两头依旧过于平坦,容易造成梯度消失

    优点:值域关于x=0对称,就是输有正有负,sigmoid输出全为正数,效果不好

    3、Rectified Linear Unit(RELU)(是目前使用最广泛的激活函数,特别是卷积网络)

    特点:1、不存在saturate(饱和)区域

       2、收敛速度比sigmoid/tanh函数快

       3、计算简单高效

       4、存在Dead Area,权重不更新,leaky RELU不存在dead area


    从神经元到网络

    把相同结构的单元组合在一起,构成神经网络的层:

    输入层:输入向量

    中间层:隐含层

    输出层:输出向量,用于预测、分类、回归等

    每一个隐含层都是向量输入,向量输出

    同层的单元输入向量相同,来自前一层

    同层的单元输出构成该层的输出向量

    输出层不一定要有激活函数,可以soft用softmax分类等

  • 相关阅读:
    Android存储数据方式(转)
    Android实现双进程守护 (转)
    Android DOM、SAX、Pull解析XML(转)
    TCP/IP和Socket的关系(转)
    Socket通信原理和实践
    [转]Android中Intent传递对象的两种方法(Serializable,Parcelable)
    内存堆和栈的区别
    hdu 1754 线段树
    hdu 1166 线段树
    zoj 3686 线段树
  • 原文地址:https://www.cnblogs.com/crazybird123/p/6880778.html
Copyright © 2011-2022 走看看