seq2seq + attention 详解

seq2seq + attention 详解 做者:xy_free 时间:2018.05.21web 1. seq2seq模型 seq2seq模型最先可追溯到2014年的两篇paper [1, 2],主要用于机器翻译任务(MT)。seq2seq本质上是一种encoder-decoder框架,以翻译任务中的“英译汉”为例,模型首先使用编码器对英文进行编码,获得英文的向量化表示S,而后使用解码器对S进
相关文章
相关标签/搜索