NLP Transformer 介绍

  传送门:【NLP】Attention原理和源码解析 自Attention机制提出后,加入attention的Seq2seq模型在各个任务上都有了提升,所以现在的seq2seq模型指的都是结合rnn和attention的模型,具体原理可以参考传送门的文章。之后google又提出了解决sequence to sequence问题的transformer模型,用全attention的结构代替了lst
相关文章
相关标签/搜索