Effective Approaches to Attention-based Neural Machine Translation之每日一篇

论文地址:http://www.cs.cmu.edu/~ark/EMNLP-2015/proceedings/EMNLP/pdf/EMNLP166.pdf 概述: 本文针对NMT任务是用attention机制提出两种结构,global attention将attention作用于全部输入序列,local attention每个时间步将attention作用于输入序列的不同子集。前者被称为soft
相关文章
相关标签/搜索