Attention的两种机制——global attention/local attention

目录 1 Global Attention全局注意力机制 权重计算函数 Local Attention References:   1 Global Attention全局注意力机制 权重计算函数 眼尖的同学肯定发现这个attention机制比较核心的地方就是如何对Query和key计算注意力权重。下面简单总结几个常用的方法: 1、多层感知机方法   主要是先将query和key进行拼接,然后接一
相关文章
相关标签/搜索