【论文笔记】Attention is all you need

在阅读本文之前,关于self-attention的详细介绍,比较全面的transformer总结看之前copy的这篇文章。 有了self-attention的基础之后再看这篇论文,感觉就容易了。 论文:Attention is all you need。 文章目录 1-2 Introduction & Background 3 Model Architecture 3.1 Encoder and
相关文章
相关标签/搜索