LSTM相比通常RNN的优点

LSTM 是为了解决 RNN 的 Gradient Vanish 的问题所提出的。算法 LSTM如何避免梯度消失?优化   LSTM只能避免RNN的梯度消失(gradient vanishing),可是不能对抗梯度爆炸问题(Exploding Gradient)。spa 梯度膨胀(gradient explosion)不是个严重的问题,通常靠裁剪后的优化算法便可解决,好比gradient clip
相关文章
相关标签/搜索