attention 机制 源码篇

文章目录 1.整体结构 2.编码部分(Input) 2.1.input embedding 2.2.Positional encoding 2.3.Multi-head attention 2.4.Add&Norm 2.5.FeedForward 2.6.Add&Norm 2.7.编码Block Loop 3.解码 3.1.target sequence embedding 3.2.Positio
相关文章
相关标签/搜索