Neural Machine Translation by Jointly Learning to Align and....

前面的两篇文章简单介绍了seq2seq在机器翻译领域的尝试,效果令人满意。上一篇也介绍到这一类问题可以归纳为求解P(output|context)的问题,不同的地方在于context的构建思路不同,上两篇中的seq2seq将context定义为encoder的last hidden state,即认为rnn将整个input部分的信息都保存在了last hidden state中。而事实上,rnn是
相关文章
相关标签/搜索