【学习笔记】LSTM 李弘毅

1. LSTM简介 x 输入顺序不同,得到的结果不同 核心:memory 2. LSTM training 3. LSTM和RNN的比较(为什么说LSTM可以解决RNN中的梯度消失问题?) RNN在每个时间点计算产生的输出会直接把memory覆盖掉 而LSTM每个时间点产生的输出会对原来的memory进行累加 如果weight可以影响到memory中的值,则这个影响则一定会存在,因为这个影响是累加
相关文章
相关标签/搜索