QA问答系统,QA匹配论文学习笔记

论文题目:算法

WIKIQA: A Challenge Dataset for Open-Domain Question Answering 测试

 

论文代码运行:spa

首先按照readme中的提示安装须要的部分日志

遇到的问题:blog

theano的一些问题,主要是API改动it

下面是解决方法io

首先安装class

https://stackoverflow.com/questions/39501152/importerror-no-module-named-downsampleimport

代码改动以下所示:module

 

论文内容:

摘要:

介绍本文主要是提供了一种开放领域的QA匹配的问答系统,而且描述了建立的WIKI数据集的方式。

这种QA匹配的算法与以前的算法的不一样之处在于,以往重点在于Q和A中相同词的个数,主要重点在于文本结构的类似,

本文的算法偏向于语义的类似。本文对比了几种算法在相同数据集上的表现。

引言:

Answer sentence selection (答案选择??)是开放领域QA的一个自问题。介绍了

TREC-QA data 的来历。说这个数据集虽然已是该类问题的基准测试机,可是并很差,有巴拉巴拉一些缺点,

主要就是question和answer之间的文本类似度比较大,偏心文本类似的答案,比实际状况效果有些膨胀了。

另外一方面就是实际状况question不必定有对应的答案。

因此建立了wikiQA数据集。

本文的做者实现了几种模型来

wikiQA数据集的介绍:

这个数据集是从Bing的搜索日志中选出来的。这个数据集有3047条数据。

这是基于用户点击WIKI页面获得的。就是用户有个搜索的问题,返回结果有wiki,用户点开看了。

那答案怎么来呢?答案是wiki页面的摘要。

做者认为wiki的摘要质量很高,能够很好的归纳页面的内容。

为了排除对于keyword(关键字)的偏好,数据集将摘要中的每一句话都做为问题的一个候选答案。

而后再由人工标注哪些句子是正确答案。

 

实验:

对比了使用TF-IDF和不使用TF-IDF的区别,实现了

LCLR  和CNN两种QA比较的算法

CNN-Cnt是最好的了,CNN加词的权重

在WIKI QA数据集上 CNN表现好与单纯的词匹配,好于LCLR

总结:

相关文章
相关标签/搜索