【论文笔记copy】Attention总结三:self-attention与transformer

self-attention与transformer讲解 论文:attention is all you need. 参考 1.完全参考这篇博客,讲的非常好!本总结只是复述。 2.还参考了知乎的这篇文章,作为补充 文章目录 参考 1 self-attention具体 1.1 过程 1.2 矩阵的self-attention 1.3 Scaled Dot-Product Attention 2 tr
相关文章
相关标签/搜索