NLP_task9: Attention

1  Attention基本原理       在“Neural Machine Translation By Jointly Learning To Align And Translate”中,为解决RNN-Encoder-Decoder的基础上target端输入固定长度的问题,提出了Align方式,这也是Attention的开始。这篇paper中,它将输入句子编码成一系列向量,并在解码翻译时自适
相关文章
相关标签/搜索