Attention机制论文阅读——global attention和local attention

论文名字:Effective Approaches to Attention-based Neural Machine Translation 这篇文章提出了两种attention机制:全局attention机制和局部attention机制(区别在于关注的是所有encoder状态还是部分encoder状态) 文章中计算context向量的过程: 通过两种attention机制得到上下文向量: Gl
相关文章
相关标签/搜索