NLP入门(4)— Self-attention & Transformer

前言 上一期介绍了Seq2Seq Model,这样一个思想可以说是经久不衰。不过即便如此,以RNN为基础结构的Model也有存在的一些问题,这也促使急需有新的模型能够对它的地位发起挑战。本篇博客就来介绍近几年大火的NLP模型Transformer。 Self-attention 要想认识Transformer,那么先得从它内部最核心的结构说起,也就是这个Self-attention结构。 RNN存
相关文章
相关标签/搜索