GRU及双向RNN介绍

GRU 假设我们已经熟知循环神经网络(RNN)及长短时间记忆网络(LSTM)。相比于简单的RNN,LSTM增加了记忆单元(memory cell)、输入门(input gate)、遗忘门(forget gate)及输出门(output gate),这些门及记忆单元组合起来大大提升了RNN处理远距离依赖问题的能力。 RNN: H t = ϕ ( X t W x h + H t − 1 W h h +
相关文章
相关标签/搜索