【Natural Language Processing】seq2seq学习笔记

         seq2seq能够当作是一个翻译模型,即经过一个sequence转换为另外一个sequence,也能够看作是对联的生成,即经过上联来产生下联,其主要是使用两个RNN(实际上是LSTM,具体可看:LSTM(Long Short-Term Memory)学习),一个进行Encoder,另外一个进行Decoder,即Encoder-Decoder,其可用在NLG(Nature Lang
相关文章
相关标签/搜索