Stacked Latent Attention for Multimodal Reasoning [CVPR 2018]

论文链接甩出来:点击打开链接 堆叠潜在注意力模型:个人感觉这是一篇传统Attention 和残差网络的拼接。。。 一. Standard Attention Mechanism     Attention 实际上就是一个加权求和的过程。搞图像的就突出图像特征而已。Attention map就是一张权值分布图,与feature map“点积”就是加权过程,关键是怎么产生这张Attention map
相关文章
相关标签/搜索