位置注意力和通道注意力机制

Position Attention Module 捕获特征图的任意两个位置之间的空间依赖,对于某个特定的特征,被所有位置上的特征加权和更新。权重为相应的两个位置之间的特征相似性。因此,任何两个现有相似特征的位置可以相互贡献提升,而不管它们之间的距离.。 特征图A(C*H*W)首先分别通过3个卷积层(BN和Relu)得到三个特征图{B,C,D},shape为(C*H*W),然后reshape为C*
相关文章
相关标签/搜索