CVPR2020《Exploring Self-attention for Image Recognition》

论文代码:https://github.com/hszhao/SAN 问题 cnn由于卷积核固定的原因,它无法自适应的针对图像不同的像素内容进行改变;不过针对每个channel的卷积核值可以不同,因此在通道上可以自适应。以往提到的很多attention用dot product算scalar attention,虽然做到了内容自适应,但是每个通道的值又相同,即做不到通道自适应 动机 本文作者认为,使
相关文章
相关标签/搜索