浅谈Seq2Seq模型

最近在阅读论文《Attention is all you need》的时候了解到了这个Seq2Seq模型,其最基本的原理及其思想就是RNN(循环神经网络的)的一个最重要的变种:N vs M,这种结构也叫Encoder-Decoder模型。原始的N vs N RNN要求序列等长,然而我们遇到的大部分问题序列都是不等长的,如机器翻译中,源语言和目标语言的句子往往并没有相同的长度。   举一个很简单的翻
相关文章
相关标签/搜索