深度学习(21):seq2seq,注意力模型

seq2seq seq2seq在机器翻译等领域十分好用。 我们将模型分成两部分,首先构造一个RNN充当encoder,将汉语句子依次作为输入,生成一个中间状态。 然后构造另一个RNN充当decoder。初始输入x是0,初始状态是encoder的输入。接下来每一次的输入x都是上次的输出,直到输出终止符算法停止,得到翻译出来的语句。 我们假设最终得到y1y2y3y4…yn这个翻译结果。我们希望得到在原
相关文章
相关标签/搜索