注意力机制简单理解

Attention机制是对Seq2Seq结构的提升。 可以看到,整个Attention注意力机制相当于在Seq2Seq结构上加了一层“包装”,内部通过函数 score 计算注意力向量 ,从而给Decoder RNN加入额外信息,以提高性能 图来自于
相关文章
相关标签/搜索