EMNLP 2017 NMT with word prediction

文章链接:https://arxiv.org/abs/1708.01771 概述: 这篇文章针对传统的seq2seq模型decoder端的改进。 针对解决的问题: 1.传统的seq2seq模型,encoder端通过一个双向的LSTM或者GRU,生成一个固定维度的向量用来表示源端信息,我们用这个向量initial_state来表示源端的信息。因此源端所形成的initial_state在整个翻译过程中
相关文章
相关标签/搜索