最近学习了一篇ACL会议上的文章,讲的是作一个短文对话的神经反映机,网络
原文:框架
会议:ACL(2015)post
文章条目: Lifeng Shang, Zhengdong Lu, Hang Li:学习
Neural Responding Machine for Short-Text Conversation. 1577-1586编码
写下学习笔记:翻译
拓展:Attention Model 注意力模型,本文中提到所采用的Encoder-Decoder框架。设计
能够把它看做适合处理由一个句子(或篇章)生成另一个句子(或篇章)的通用处理模型。3d
X表示输出的句子,Y表示输出的句子。code
Encoder对输入句子进行编码,转化成中间语义表示orm
Decoder对中间语义及已经生成的历史信息y1,y2,…生成i时刻要生成的单词yi,不少个yi串起来就造成了Y,即输出的句子。
其中编码和解码都有不少可用的神经网络模型,如CNN/RNN/LSTM/深度LSTM等等,有不少种组合能够尝试。在文本处理中比较常见的Endocer和Decoder都采用RNN模型。
而本文也采用了seq2seq(Sequence to Sequence)模型,该模型能够运用在不少地方,好比说文章自动摘要、机器翻译、人机对话等等。(其实就是一个Encoder和Decoder模型,而后Encoder和Decoder用的都是RNN中的GRU网络)。所以本文中的Encoder-Decoder模型本质上来讲应该是这样的:
Short-Text Conversation(STC)指的是单轮对话任务——也就是对于每个输入post给出一个对应的response。以往的STC方法主要有两种:检索式的方法(retrieval-based method)和统计机器翻译(statistical machine learning, SMT)。可是检索式的事先都固定好了,太缺少多样性,而统计机器翻译将它做为一个翻译任务,而有时候post和respond是彻底没有一点语义关系的。
本文采起通用的Encoder-Decoder模型,同时利用了seq2seq模型,在编码和解码的过程当中都用的是循环神经网络CNN中的GRU(没有用LSTM是由于LSTM的参数太多,用GRU相对简单一些而且效果还不错),并设计了一个基于神经网络的短文对话响应机NRM(至关于机器对话),训练数据是经过微博收集的大量一轮的对话。
首先获取数据,听从经典的步骤,首先是删除无心义词如”wow”;筛除广告;只留前30我的的回复。
接下来转化的模型:
主要是这个L很重要,要可以表示输入句子的特性,这里要用到注意力模型肯定h中的哪一步分须要着重考虑。由输入数据和y1,y2,…yi-1决定。
解码用到下面的模型:
虚线表明 g(.) ,实线表明 f(.)
编码方案提出了三种:
global scheme(NRM-glo):
简单定义 hT 为Ct
local scheme(NRM-loc):
这里用到了注意力模型(AM模型),动态决定
,而
,
hybrid scheme combines the aforementioned 2(NRM-hyb):
第一种全局的方法能抓住post的全局特征,而第二种局部的方法能倚靠AM模型选择不一样位置的单词做为重要特征,所以第三种方法能够混合一下前两种方法。模型以下:
实验证实检索式的方法效果和NRM-glo差很少,由于它基本使用的都是预约义的responses,不会有一些语法上的问题,同时匹配特征保证了responses和post的相关性,
所以从表面上看来这是最合适的回答,可是实际上它只是重复了post说的内容而已,而NRM-hyb结合了global和local的优势以后,performance明显好于其余方法。