【论文笔记】Effective Approaches to Attention-based Neural Machine Translation

论文链接    本文针对NMT任务使用的attention机制提出两种结构,global attention将attention作用于全部输入序列,local attention每个时间步将attention作用于输入序列的不同子集。前者被称为soft attention,其原理和论文1一样,后者是hard attention和soft attention的结合,该文通过context vecto
相关文章
相关标签/搜索