Attention机制

在机器翻译领域中,Attention机制是从机器视觉领域首先提出的。其直觉是当人们观察事物时,人们总是将注意力放在关注的事物上,而不是看的所有画面。 为了更好地解释Attention机制的作用,我们引入机器翻译任务中的问题。在机器翻译任务中,人们发现,RNN对短的句子总是有很好的翻译效果,而长句子的翻译效果则不尽如人意,这是因为即使是LSTM也只能记住大约30个词。我们可以从这样一个方面考虑,如下
相关文章
相关标签/搜索