动手学PyTorch | (33) 通过时间反向传播

在前⾯两节中,如果不裁剪梯度,模型将⽆法正常训练。为了深刻理解这一现象,本节将介绍循环神经⽹络中梯度的计算和存储⽅法,即通过时间反向传播(back-propagation through time)。 我们在(正向传播、反向传播和计算图)中介绍了神经⽹络中梯度计算与存储的⼀般思路,并强调正向传播和反向传播相互依赖。正向传播在循环神经⽹络中⽐较直观,而通过时间反向传播其实是反向传播在循环神经网络中的
相关文章
相关标签/搜索