论文笔记 | Modeling Intra-Relation in Math Word Problems with Different Functional Multi-Head Attentions

简介 Jierui Li, Wang Lei 和 Dongxiang Zhang团队发表在ACL19上的工作。主要使用不同功能的Multi-Head Attention来获取不同类型对象的关系。 受到multi-head attention工作的启发,作者设计了四种不同的attention机制: Global attention:以整个句子的表示作为query, key和value,以获取全局信息
相关文章
相关标签/搜索