LSTM(Long Short Term Memory)

从RNN到LSTM:https://link.jianshu.com/?t=http://colah.github.io/posts/2015-08-Understanding-LSTMs/

RNN,

通过RNN,信息可以向前传递。

但是,RNN有个缺点,就是当循环的间隔太长,梯度消失的问题。

按理说,通过调节参数,RNN也能处理这类长期的传递问题,但是因为某些基础的问题,RNN难以胜任这类。【参考:Hochreiter (1991) [German] 和Bengio, et al. (1994)的研究】

LSTM,

 几个门的功能:

原文地址:https://www.cnblogs.com/2008nmj/p/9155219.html