论文题目:算法
WIKIQA: A Challenge Dataset for Open-Domain Question Answering 测试
论文代码运行:spa
首先按照readme中的提示安装须要的部分日志
遇到的问题:blog
theano的一些问题,主要是API改动it
下面是解决方法io
首先安装class
https://stackoverflow.com/questions/39501152/importerror-no-module-named-downsampleimport
代码改动以下所示:module
论文内容:
摘要:
介绍本文主要是提供了一种开放领域的QA匹配的问答系统,而且描述了建立的WIKI数据集的方式。
这种QA匹配的算法与以前的算法的不一样之处在于,以往重点在于Q和A中相同词的个数,主要重点在于文本结构的类似,
本文的算法偏向于语义的类似。本文对比了几种算法在相同数据集上的表现。
引言:
Answer sentence selection (答案选择??)是开放领域QA的一个自问题。介绍了
TREC-QA data 的来历。说这个数据集虽然已是该类问题的基准测试机,可是并很差,有巴拉巴拉一些缺点,
主要就是question和answer之间的文本类似度比较大,偏心文本类似的答案,比实际状况效果有些膨胀了。
另外一方面就是实际状况question不必定有对应的答案。
因此建立了wikiQA数据集。
本文的做者实现了几种模型来
wikiQA数据集的介绍:
这个数据集是从Bing的搜索日志中选出来的。这个数据集有3047条数据。
这是基于用户点击WIKI页面获得的。就是用户有个搜索的问题,返回结果有wiki,用户点开看了。
那答案怎么来呢?答案是wiki页面的摘要。
做者认为wiki的摘要质量很高,能够很好的归纳页面的内容。
为了排除对于keyword(关键字)的偏好,数据集将摘要中的每一句话都做为问题的一个候选答案。
而后再由人工标注哪些句子是正确答案。
实验:
对比了使用TF-IDF和不使用TF-IDF的区别,实现了
LCLR 和CNN两种QA比较的算法
CNN-Cnt是最好的了,CNN加词的权重
在WIKI QA数据集上 CNN表现好与单纯的词匹配,好于LCLR
总结: