【BI-DIRECTIONAL ATTENTION FLOW FOR MACHINE COMPREHENSION】论文笔记

前三层分别是char embedding、word embedding、context embedding,不再细说。 主要想记录一下对Attention Flow Layer的一些思考。 首先, 引入attention这一层的目的是为了将“问题的特征”融入到给定的context的embedding中去。 也就是说,在给出合理的答案之前,我们必须按照question的提示,重点关注context中
相关文章
相关标签/搜索