短文对话的神经反应机 -- Neural Responding Machine for Short-Text Conversation学习笔记

 

 

  最近学习了一篇ACL会议上的文章,讲的是作一个短文对话的神经反映机,网络

  原文:框架

  会议:ACL(2015)post

  文章条目:    Lifeng Shang, Zhengdong Lu, Hang Li:学习

  Neural Responding Machine for Short-Text Conversation. 1577-1586编码

  写下学习笔记:翻译

  

  拓展:Attention Model 注意力模型,本文中提到所采用的Encoder-Decoder框架。设计

  

  能够把它看做适合处理由一个句子(或篇章)生成另一个句子(或篇章)的通用处理模型。3d

    X表示输出的句子,Y表示输出的句子。code

  Encoder对输入句子进行编码,转化成中间语义表示orm

  Decoder对中间语义及已经生成的历史信息y1,y2,…生成i时刻要生成的单词yi,不少个yi串起来就造成了Y,即输出的句子。

  

  其中编码和解码都有不少可用的神经网络模型,如CNN/RNN/LSTM/深度LSTM等等,有不少种组合能够尝试。在文本处理中比较常见的Endocer和Decoder都采用RNN模型。

  

  而本文也采用了seq2seq(Sequence to Sequence)模型,该模型能够运用在不少地方,好比说文章自动摘要、机器翻译、人机对话等等。(其实就是一个Encoder和Decoder模型,而后Encoder和Decoder用的都是RNN中的GRU网络)。所以本文中的Encoder-Decoder模型本质上来讲应该是这样的:

  

  Short-Text Conversation(STC)指的是单轮对话任务——也就是对于每个输入post给出一个对应的response。以往的STC方法主要有两种:检索式的方法(retrieval-based method)和统计机器翻译(statistical machine learning, SMT)。可是检索式的事先都固定好了,太缺少多样性,而统计机器翻译将它做为一个翻译任务,而有时候post和respond是彻底没有一点语义关系的。

  

  本文采起通用的Encoder-Decoder模型,同时利用了seq2seq模型,在编码和解码的过程当中都用的是循环神经网络CNN中的GRU(没有用LSTM是由于LSTM的参数太多,用GRU相对简单一些而且效果还不错),并设计了一个基于神经网络的短文对话响应机NRM(至关于机器对话),训练数据是经过微博收集的大量一轮的对话。

  

  首先获取数据,听从经典的步骤,首先是删除无心义词如”wow”;筛除广告;只留前30我的的回复。

  

  接下来转化的模型:

  

  

  主要是这个L很重要,要可以表示输入句子的特性,这里要用到注意力模型肯定h中的哪一步分须要着重考虑。由输入数据和y1,y2,…yi-1决定。

  

  解码用到下面的模型:

  

 

  虚线表明 g(.) ,实线表明 f(.)

   

  

  编码方案提出了三种:

  global scheme(NRM-glo):

 简单定义       hT 为Ct

  local scheme(NRM-loc):

      这里用到了注意力模型(AM模型),动态决定 ,而

 

  hybrid scheme combines the aforementioned 2(NRM-hyb):

  

  第一种全局的方法能抓住post的全局特征,而第二种局部的方法能倚靠AM模型选择不一样位置的单词做为重要特征,所以第三种方法能够混合一下前两种方法。模型以下:

  

  实验证实检索式的方法效果和NRM-glo差很少,由于它基本使用的都是预约义的responses,不会有一些语法上的问题,同时匹配特征保证了responses和post的相关性,

所以从表面上看来这是最合适的回答,可是实际上它只是重复了post说的内容而已,而NRM-hyb结合了global和local的优势以后,performance明显好于其余方法。

相关文章
相关标签/搜索