论文阅读:How to Construct Deep Recurrent Neural Networks

原文地址 对一般前向传播网络的深度定义是不适用于RNN的,因为RNN的时序结构,当它依时序展开时,只要t够大,那么依照一般定义这都是一个deep RNN。 但是从上图可以看出,在一个单独的time step中,普通RNN的结构无论是input-to-hidden( xt→ht )还是hidden-to-hidden( ht−1→ht )还是hidden-to-output( ht→yt ),他们都
相关文章
相关标签/搜索