【论文阅读笔记】ECA-Net: Efficient Channel Attention for Deep Convolutional Neural Networks

论文地址:ECA-Net 论文代码:https://github.com/BangguWu/ECANet 论文总结   ECA-Net是基于SE-Net的扩展,其认为SE block的两个FC层之间的维度缩减是不利于channel attention的权重学习的,这个权重学习的过程应该直接一一对应。作者做了一系列实验来证明在attention block中保持channel数不变的重要性。   E
相关文章
相关标签/搜索