RNN循环神经网络里的BPTT算法

这两天对RNN循环神经网络进行了学习,由一无所知到现在对什么是RNN以及它的前向传播和反向传播有了认识,尤其是BPTT算法的推导有些繁琐,但是推过一次后,对RNN反向传播求梯度的过程有了更清晰的认识。 下面是朴素的RNN循环神经网络图。(图1) 我在写博客前,自己先手写了一份推导过程。(图2) 为何BPTT更难? 因为多了状态之间的传递(即隐层单元之间的“交流”),根据前向传播算法,我们知道 s∗
相关文章
相关标签/搜索