深度学习笔记(八)LSTM长短时间记忆网络

上一个章节(RNN)最后的时候分析,  当t-k远大于0的时候,若是 小于零,将会变成一个很小值,若是大于零,将会变成一个不少的数, 前者就是 梯度消失 ,后者就是 梯度爆炸, LSTM主要是解决这个问题。梯度消失图以下: 其实,长短时记忆网络的思路比较简单。原始RNN的隐藏层只有一个状态,即h,它对于短时间的输入很是敏感。那么,假如咱们再增长一个状态,即c,让它来保存长期的状态,那么问题不就解决
相关文章
相关标签/搜索