【深度学习】各种注意力机制:encoder-decoder,self-attention,multi-head attention的区别

最近以QA形式写了一篇nlp中的Attention注意力机制+Transformer详解 分享一下自己的观点,目录如下: 一、Attention机制剖析 1、为什么要引入Attention机制? 2、Attention机制有哪些?(怎么分类?) 3、Attention机制的计算流程是怎样的? 4、Attention机制的变种有哪些? 5、一种强大的Attention机制:为什么自注意力模型(sel
相关文章
相关标签/搜索