从RNN到LSTM:https://link.jianshu.com/?t=http://colah.github.io/posts/2015-08-Understanding-LSTMs/
RNN,
通过RNN,信息可以向前传递。
但是,RNN有个缺点,就是当循环的间隔太长,梯度消失的问题。
按理说,通过调节参数,RNN也能处理这类长期的传递问题,但是因为某些基础的问题,RNN难以胜任这类。【参考:Hochreiter (1991) [German] 和Bengio, et al. (1994)的研究】
LSTM,
几个门的功能: