【论文笔记】张航和李沐等提出:ResNeSt: Split-Attention Networks(ResNet改进版本)

github地址:https://github.com/zhanghang1989/ResNeStgit

论文地址:https://hangzhang.org/files/resnest.pdf github

 

核心就是:Split-attention blocks网络

先看一组图:架构

ResNeSt在图像分类上中ImageNet数据集上超越了其前辈ResNet、ResNeXt、SENet以及EfficientNet。使用ResNeSt-50为基本骨架的Faster-RCNN比使用ResNet-50的mAP要高出3.08%。使用ResNeSt-50为基本骨架的DeeplabV3比使用ResNet-50的mIOU要高出3.02%。涨点效果很是明显。ide

一、提出的动机性能

他们认为像ResNet等一些基础卷积神经网络是针对于图像分类而设计的。因为有限的感觉野大小以及缺少跨通道之间的相互做用,这些网络可能不适合于其它的一些领域像目标检测、图像分割等。这意味着要提升给定计算机视觉任务的性能,须要“网络手术”来修改ResNet,以使其对特定任务更加有效。 例如,某些方法添加了金字塔模块[8,69]或引入了远程链接[56]或使用跨通道特征图注意力[15,65]。 虽然这些方法确实能够提升某些任务的学习性能,但由此而提出了一个问题:咱们是否能够建立具备通用改进功能表示的通用骨干网,从而同时提升跨多个任务的性能?跨通道信息在下游应用中已被成功使用 [56,64,65],而最近的图像分类网络更多地关注组或深度卷积[27,28,54,60]。 尽管它们在分类任务中具备出色的计算能力和准确性,可是这些模型没法很好地转移到其余任务,由于它们的孤立表示没法捕获跨通道之间的关系[2七、28]。所以,具备跨通道表示的网络是值得作的。学习

二、本文的贡献点spa

第一个贡献点:提出了split-attention blocks构造的ResNeSt,与现有的ResNet变体相比,不须要增长额外的计算量。并且ResNeSt能够做为其它任务的骨架。设计

第二个贡献点:图像分类和迁移学习应用的大规模基准。 利用ResNeSt主干的模型可以在几个任务上达到最早进的性能,即:图像分类,对象检测,实例分割和语义分割。 与经过神经架构搜索生成的最新CNN模型[55]相比,所提出的ResNeSt性能优于全部现有ResNet变体,而且具备相同的计算效率,甚至能够实现更好的速度精度折衷。单个Cascade-RCNN [3]使用ResNeSt-101主干的模型在MS-COCO实例分割上实现了48.3%的box mAP和41.56%的mask mAP。 单个DeepLabV3 [7]模型一样使用ResNeSt-101主干,在ADE20K场景分析验证集上的mIoU达到46.9%,比之前的最佳结果高出1%mIoU以上。3d

三、相关工做就不介绍了

四、Split-Attention网络

直接看ResNeSt block:

首先是借鉴了ResNeXt网络的思想,将输入分为K个,每个记为Cardinal1-k ,而后又将每一个Cardinal拆分红R个,每个记为Split1-r,因此总共有G=KR个组。

而后是对于每个Cardinal中具体是什么样的:

这里借鉴了squeeze-and-excitation network(SENet) 中的思想,也就是基于通道的注意力机制,对通道赋予不一样的权重以建模通道的重要程度。

对于每个Cardinal输入是:

通道权重统计量能够经过全局平均池化得到:

用Vk表示携带了通道权重后的Cardinal输出:

那么最终每一个Cardinal的输出就是:

而其中的是通过了softmax以后计算所得的权重:

若是R=1的话就是对该Cardinal中的全部通道视为一个总体。

接着将每个Cardinal的输出拼接起来:

假设每一个ResNeSt block的输出是Y,那么就有:

其中T表示的是跳跃链接映射。这样的形式就和ResNet中的残差块输出计算就一致了。

五、残差网络存在的问题 

(1)残差网络使用带步长的卷积,好比3×3卷积来减小图像的空间维度,这样会损失掉不少空间信息。对于像目标检测和分割领域,空间信息是相当重要的。并且卷积层通常使用0来填充图像边界,这在迁移到密集预测的其它问题时也不是最佳选择。所以本文使用的是核大小为3×3的平均池化来减小空间维度

(2)

  • 将残差网络中的7×7卷积用3个3×3的卷积代替,拥有一样的感觉野。
  • 将跳跃链接中的步长为2的1×1卷积用2×2的平均池化代替。

六、训练策略

这里就简单地列下,相关细节能够去看论文。

(1)大的min batch,使用cosine学习率衰减策略。warm up。BN层参数设置。

(2)标签平滑

(3)自动加强

(4)mixup训练

(5)大的切割设置

(6)正则化

六、相关结果 

附录中还有一些结果,就再也不贴了。 

最后是split attention block的实现代码,能够结合看一看:

import torch
from torch import nn
import torch.nn.functional as F
from torch.nn import Conv2d, Module, Linear, BatchNorm2d, ReLU
from torch.nn.modules.utils import _pair

__all__ = ['SKConv2d']

class DropBlock2D(object):
    def __init__(self, *args, **kwargs):
        raise NotImplementedError

class SplAtConv2d(Module):
    """Split-Attention Conv2d
    """
    def __init__(self, in_channels, channels, kernel_size, stride=(1, 1), padding=(0, 0),
                 dilation=(1, 1), groups=1, bias=True,
                 radix=2, reduction_factor=4,
                 rectify=False, rectify_avg=False, norm_layer=None,
                 dropblock_prob=0.0, **kwargs):
        super(SplAtConv2d, self).__init__()
        padding = _pair(padding)
        self.rectify = rectify and (padding[0] > 0 or padding[1] > 0)
        self.rectify_avg = rectify_avg
        inter_channels = max(in_channels*radix//reduction_factor, 32)
        self.radix = radix
        self.cardinality = groups
        self.channels = channels
        self.dropblock_prob = dropblock_prob
        if self.rectify:
            from rfconv import RFConv2d
            self.conv = RFConv2d(in_channels, channels*radix, kernel_size, stride, padding, dilation,
                                 groups=groups*radix, bias=bias, average_mode=rectify_avg, **kwargs)
        else:
            self.conv = Conv2d(in_channels, channels*radix, kernel_size, stride, padding, dilation,
                               groups=groups*radix, bias=bias, **kwargs)
        self.use_bn = norm_layer is not None
        self.bn0 = norm_layer(channels*radix)
        self.relu = ReLU(inplace=True)
        self.fc1 = Conv2d(channels, inter_channels, 1, groups=self.cardinality)
        self.bn1 = norm_layer(inter_channels)
        self.fc2 = Conv2d(inter_channels, channels*radix, 1, groups=self.cardinality)
        if dropblock_prob > 0.0:
            self.dropblock = DropBlock2D(dropblock_prob, 3)

    def forward(self, x):
        x = self.conv(x)
        if self.use_bn:
            x = self.bn0(x)
        if self.dropblock_prob > 0.0:
            x = self.dropblock(x)
        x = self.relu(x)

        batch, channel = x.shape[:2]
        if self.radix > 1:
            splited = torch.split(x, channel//self.radix, dim=1)
            gap = sum(splited) 
        else:
            gap = x
        gap = F.adaptive_avg_pool2d(gap, 1)
        gap = self.fc1(gap)

        if self.use_bn:
            gap = self.bn1(gap)
        gap = self.relu(gap)

        atten = self.fc2(gap).view((batch, self.radix, self.channels))
        if self.radix > 1:
            atten = F.softmax(atten, dim=1).view(batch, -1, 1, 1)
        else:
            atten = F.sigmoid(atten, dim=1).view(batch, -1, 1, 1)

        if self.radix > 1:
            atten = torch.split(atten, channel//self.radix, dim=1)
            out = sum([att*split for (att, split) in zip(atten, splited)])
        else:
            out = atten * x
        return out.contiguous()

 

若有错误,欢迎指出。

相关文章
相关标签/搜索