Squeeze-and-Excitation_Networks

这篇文章主要介绍了一个小的SE模块,为模型引入channel-wise的注意力机制:就是为每个channel学习一个权重,到时候把学习到的权重和feature map各个通道分别相乘,重新标定特征 这里引用作者的解释: 这里我们使用 global average pooling 作为 Squeeze 操作。紧接着两个 Fully Connected 层组成一个 Bottleneck 结构去建模通道
相关文章
相关标签/搜索
本站公众号
   欢迎关注本站公众号,获取更多信息