Seq2Seq系列(三):attention mechanism

论文链接:Neural Machine Translation by Jointly Learning to Align and Translate 这是介绍Seq2Seq系列的第三篇文章,主要讲带有attention机制的Seq2Seq模型。 首先,作者回顾了一下RNN Encoder-Decoder模型: ht=f(xt,ht−1) c=q(h1,...,hTx) p(y)=∏t=1Tp(yt
相关文章
相关标签/搜索