Triple Attention Mixed Link Network for Single Image Super Resolution

该文章主要内容为通过添加三重注意力机制来增强超分效果,实则就是提出了一个三重注意力机制的炒粉模型,首先从底层分析,三重注意力机制:①为一个传统的通道注意力机制,不过在此将全连接层变为卷积层实施升维和降维代码如下: ②提出了一个核注意力机制并列为该论文的创新点:主要思路是将不同卷积核提取出的不同感受野下的特征图提取出来进行融合(即逐元素相加)后通过一个通道注意力机制形成一个参数,注意这里为一个参数图
相关文章
相关标签/搜索