nlp复习--seq2seq & attention

seq2seq seq2seq又叫Encoder-Decoder模型。它可以实现从一个序列到任意一个序列的转换,模型如下所示,其左半部分为Encoder部分,右半部分为Decoder部分。 在翻译的应用中,可以理解为看完一个句子,提炼出它的大意 Seq2Seq模型中的向量 c就代表着context vector,即含有所有输入句信息的向量。 缺点 基础的Seq2Seq有一些缺点,因为Encoder
相关文章
相关标签/搜索