模型-深度学习-Seq2Seq、Attention、Transformer、BERT

Seq2Seq Seq2Seq模型分为encoder层与decoder层,并均由RNN或RNN的变体构成 在encode阶段,第一个节点输入一个词,之后的节点输入的是下一个词与前一个节点的hidden state,最终encoder会输出一个context,这个context又作为decoder的输入,每经过一个decoder的节点就输出一个翻译后的词,并把decoder的hidden state
相关文章
相关标签/搜索