【论文笔记02】Text Understanding with the Attention Sum Reader Network

1 问题及数据集 1.1 问题 给定较长一段话的context和一个较短的问题,以及一些candidate answers,训练出可以准确预测正确答案的模型,本模型主要针对命名实体和常用名词这两种词性的单词进行填空。 1.2数据集 (1)CNN&Daily Mail (2)CBT 2 已有方法 (1)Attentive and Impatient Readers (2)Attentive (3)C
相关文章
相关标签/搜索