【简单理解】Transformer

1.简单介绍Transformer Transformer是一种使用Attention机制类提升模型训练的速度的模型,该模型的最大优势在于其并行性良好,是一个非时序深度的encoder block加decoder block模型,可以用来代替seq2seq进行长距离的依赖建模。 Transformer详解推荐这篇文章:https://jalammar.github.io/illustrated-t
相关文章
相关标签/搜索