Seq2Seq+Attention+Beam Search

开篇 Seq2Seq算是我NLP里面接触比较早的模型,它来源于机器翻译,我用来做文本自动摘要。当然它在文本自动摘要领域的效果并不好。 Seq2Seq Seq2Seq本质上是条件生成模型(Conditional Generation),在现有的模型中,看图说话(Image caption)也是类似的条件生成模型,它们的结构很类似,如下图所示 都是Encoder-Decoder的结构。 下面我们看一下
相关文章
相关标签/搜索