LSTM理解

背景 本文按照RNN和LSTM(1997年提出)进行对比、LSTM的标准流程、LSTM的常见变种、为什么LSTM不会出现梯度爆炸或梯度消失?、双向LSTM、深度双向LSTM的脉络进行记述。由于常见的RNN随着序列的增长产生梯度爆炸或梯度消失问题,导致在实际应用过程中并不能学习到间隔太远的输入,从而诞生了LSTM。 RNN和LSTM对比 下面是一些必要的图示: LSTM标准流程 LSTM的常见变种
相关文章
相关标签/搜索