【简单理解】简单理解attention本质

【简单理解】简单理解Attention注意力机制本质 1.简单介绍Attention注意力机制: Attention注意力机制其实可以用一句话说穿:它是Seq2Seq中的decoder模块对encoder模块的加权平均。 说的太简洁了不利于理解本质,接下来让我们来细细理解到底什么是Attention注意力机制吧。 2.Encoder-Decoder(Seq2Seq)框架 要了解深度学习中的注意力模
相关文章
相关标签/搜索