《Show, Attend and Tell: Neural Image Caption Generation with Visual Attention》阅读笔记

这篇论文提出了Attention机制对于Encoder-Decoder进行改进。在Encoder-Decoder结构中,Encoder将输入序列编码为 hn h n 。这样做的一个潜在问题是,如果原始序列中包含的许多信息,而 hn h n 的长度又是一定的,那么 hn h n 就存不下我们所需的所有信息。 利用Attention机制,Decoder可以在输入序列中选取需要的特征,提高了Encode
相关文章
相关标签/搜索