GRU 神经网络

  RNN的连续的连乘 会致使梯度消失的重大问题,网络 1 LSTM: 解决梯度消失或者梯度爆炸blog 遗忘门:class 候选memory cell:神经网络 更新门:循环 更新后的memory cell:im 输出门:img   2 GRU是CNN的变种,全称门控循环单元,就是在RNN 上多加几个门,目的是和LSTM 基本同样,为了增强RNN 神经网络的记忆能力。co
相关文章
相关标签/搜索