zoukankan      html  css  js  c++  java
  • 循环神经网络RNN及LSTM

    细节:

    01) LSTM遗忘门偏置项初始化为什么比较大

    参考:https://zhuanlan.zhihu.com/p/113109644

    一、循环神经网络RNN

    RNN综述 https://juejin.im/entry/5b97e36cf265da0aa81be239

    RNN中为什么要采用tanh而不是ReLu作为激活函数?  https://blog.csdn.net/behboyhiex/article/details/80819530 

    LSTM该不该使用RELU? https://blog.csdn.net/xygl2009/article/details/78855795

    从RNN的结构特征可以容易看出它最擅长解决与时间序列相关的问题。

    循环神经网络每一个时刻都有一个输入xi,然后根据上一时刻的状态h(i-1)和当前的输入xi计算当前的状态hi,并输出ot。
    RNN的展开在模型训练有重要意义,从下图可以看到,RNN对长度为N的训练展开后,可以视为一个有N个中间层的前馈神经网络,这个前馈神经网络没有循环链接,因此可以直接使用反向传播算法训练,而不需要任何特别的优化算法。这样的训练方法称为"沿时间反向传播"(Back-Propagation Through Time),是训练RNN最常见的方法。

    RNN展开图:

    或者更清晰如图:

    参考 https://www.zhihu.com/question/41949741 ,GRU: https://zhuanlan.zhihu.com/p/32481747

    图 4:使用单层全连接神经网络作为循环体的 RNN 结构图,图中黄色的 tanh 小方框表示一个使用 tanh 作为激活函数的全连接层。

    https://juejin.im/entry/5b97e36cf265da0aa81be239

     图3为RNN 的前向传播计算过程:

    二、LSTM

    LSTM综述 https://www.jianshu.com/p/9dc9f41f0b29

    LSTM单元示意图:

    各个门的定义示意:

    LSTM单元细节:

    三、随时间反向传播算法BPTT

    https://www.cnblogs.com/wacc/p/5341670.html

    三、循环神经网络激活函数

    https://blog.csdn.net/xygl2009/article/details/78855795

    https://blog.csdn.net/behboyhiex/article/details/80819530

  • 相关阅读:
    [转]只有tcp6没有tcp问题
    Makefile 中:= ?= += =的区别
    【转】docker images 介绍
    [转]我眼中的 Docker(二)Image
    【转】一个简单的Dockerfile实例
    【转】Prometheus 介绍
    [转]MySQL索引类型按存储类型和逻辑区分
    【转】mysql索引类型
    用Unity制作游戏,你需要深入了解一下IL2CPP
    c++中CreateEvent函数
  • 原文地址:https://www.cnblogs.com/ying-chease/p/9488494.html
Copyright © 2011-2022 走看看