多标签分类:Effective Approaches to Attention-based Neural Machine Translation

论文地址:https://arxiv.org/pdf/1508.04025v3.pdf 写在前面:本文《基于注意力的神经机器翻译的有效方法》,在Seq2Seq架构的基础上引入了Global Attention 和 Local Attention,为基于Seq2Seq的多标签学习提供新的思路。 摘要 通过在翻译过程中选择性地关注源句子的部分内容,attention 机制近来已被用于改进神经机器翻译(
相关文章
相关标签/搜索