深度学习之seq2seq简单介绍(待续)

Seq2Seq模型是RNN最重要的一个变种:N vs M(输入与输出序列长度不同)。 这种结构又叫Encoder-Decoder模型。 原始的N vs N RNN要求序列等长,然而我们遇到的大部分问题序列都是不等长的,如机器翻译中,源语言和目标语言的句子往往并没有相同的长度。 为此,Encoder-Decoder结构先将输入数据编码成一个上下文向量c: 、 得到c有多种方式,最简单的方法就是把En
相关文章
相关标签/搜索