关于Sequence2Sequence模型/RNN/LSTM/attention机制

Sequence2Sequence: 输入:序列A 输出:序列B 黑盒子即我们说的encoder-decoder结构,用来实现序列到序列的转换。 那么encoder-decoder结构为啥用RNN呢? ——RNN 看一下RNN的构造: RNN设计为接受两个输入:“当前的输入”和以前所有输入的“整体记忆” cell接受了上面两个输入之后,就会吐出一个输出,更新一下整体记忆。 它把对序列的整体记忆以隐
相关文章
相关标签/搜索