循环神经网络:GRU

GRU GRU是由Cho在2014年提出的,全称是Gated Recurrent Unit。它与LSTM最大的不同在于GRU将遗忘门和输入门合成了一个“更新门”,同时网络不再额外给出记忆状态 C t C_t Ct​,而是将输出结果 h t h_t ht​作为记忆状态不断向后循环传递,网络的输入和输出都变得特别简单。具体的计算过程如下图所示:在本质上,GRU和LSTM是相同的,将上一时刻 t − 1
相关文章
相关标签/搜索