解决梯度消失梯度爆炸强力推荐的一个算法-----GRU(门控循环神经⽹络)

LSTM的一种变体或优化----GRU 在循环神经⽹络中的梯度计算⽅法中,我们发现,当时间步数较⼤或者时间步较小时,循环神经⽹络的梯度较容易出现衰减或爆炸。虽然裁剪梯度可以应对梯度爆炸,但⽆法解决梯度衰减的问题。通常由于这个原因,循环神经⽹络在实际中较难捕捉时间序列中时间步距离较⼤的依赖关系。 **门控循环神经⽹络(gated recurrent neural network)**的提出,正是为了
相关文章
相关标签/搜索