【DL小结4】seq2seq与attention机制

seq2seq概述 seq2seq模型是以编码(Encode)和解码(Decode)为代表的架构方式,顾名思义是根据输入序列X来生成输出序列Y。encode意思是将输入序列转化成一个固定长度的向量(语义向量,context vector),decode意思是将语义向量解码成输出序列。 编码阶段 纯粹的RNN/LSTM/GRU 解码阶段 由上图可以发现Seq2seq中Decoder的公式和RNN基本
相关文章
相关标签/搜索