LSTM入门学习——结合《LSTM模型》文章看

摘自:https://zybuluo.com/hanbingtao/note/581764 写得非常好 见原文 长短时记忆网络的思路比较简单。原始RNN的隐藏层只有一个状态,即h,它对于短期的输入非常敏感。那么,假如我们再增加一个状态,即c,让它来保存长期的状态,那么问题不就解决了么?如下图所示: 新增加的状态c,称为单元状态(cell state)。我们把上图按照时间维度展开: 上图仅仅是一个示
相关文章
相关标签/搜索