注意力机制----seq2seq中的注意力机制

  自然语言处理中的sqe2seq模型是encoder,decoder模型 如:输入英语,输出法语 X是输入,h是状态 encoder的最后一个状态h_m是decoder的输入 seq2seq模型的缺点就是,如果句子太长,模型会漏掉一些信息,准确性会下降 但是,使用了注意力机制之后,准确率会保持在一个水平上(BLEU是机器翻译模型的评价标准) 在encoder结束工作后,decoder与encod
相关文章
相关标签/搜索