自然语言生成任务,如文本摘要和图像标题的生成。seq2seq的模型原理

我们使用x={x1,x2,…,xn}代表输入的语句,y={y1, y2, …, yn}代表输出的语句,yt代表当前输出词。在理解seq2seq的过程中,我们要牢记我们的目标是: (1) 即输出的yt不仅依赖之前的输出{y1, y2, …, yt−1},还依赖输入语句x,模型再怎么变化都是在公式(1)的约束之下。 seq2seq最初模型 最早由bengio等人发表在computer science上
相关文章
相关标签/搜索