【GaintPandaCV导语】 最近动态卷积开始有人进行了研究,也有很多的论文发表(动态卷积论文合集https://github.com/kaijieshi7/awesome-dynamic-convolution),可是动态卷积具体的实现代码却不多有文章给出。本文以微软发表在CVPR2020上面的文章为例,详细的讲解了动态卷积实现的难点以及如何动分组卷积巧妙的解决。但愿能给你们以启发。git
这篇文章也同步到知乎平台,连接为:https://zhuanlan.zhihu.com/p/208519425github
论文的题目为《Dynamic Convolution: Attention over Convolution Kernels》微信
paper的地址arxiv.org/pdf/1912.0345网络
代码实现地址,其中包含一维,二维,三维的动态卷积;分别能够用于实现eeg的处理,正常图像的处理,医疗图像中三维脑部的处理等等(水漫金山)。github.com/kaijieshi7/D,你们以为有帮助的话,能够点个星星。app
一句话描述下文的内容:将 的大小视为分组卷积里面的组的大小进行动态卷积。如
,那么就转化成
,
的分组卷积。ide
简单回顾
这篇文章主要是改进传统卷积,让每层的卷积参数在推理的时候也是随着输入可变的,而不是传统卷积中对任何输入都是固定不变的参数。(因为本文主要说明的是代码如何实现,因此推荐给你们一个讲解论文的链接:Happy:动态滤波器卷积|DynamicConv)svg

对于卷积过程当中生成的一个特征图 ,先对特征图作几回运算,生成
个和为
的参数
,而后对
个卷积核参数进行线性求和,这样推理的时候卷积核是随着输入的变化而变化的。(能够看看其余的讲解文章,本文主要理解怎么写代码)ui
下面是attention代码的简易版本,输出的是[ ,
]大小的加权参数。
对应着要被求和的卷积核数量。spa
class attention2d(nn.Module):
def __init__(self, in_planes, K,):
super(attention2d, self).__init__()
self.avgpool = nn.AdaptiveAvgPool2d(1)
self.fc1 = nn.Conv2d(in_planes, K, 1,)
self.fc2 = nn.Conv2d(K, K, 1,)
def forward(self, x):
x = self.avgpool(x)
x = self.fc1(x)
x = F.relu(x)
x = self.fc2(x).view(x.size(0), -1)
return F.softmax(x, 1)
下面是文章中 个卷积核求和的公式。.net

其中 是输入,
是输出;能够看到
进行了两次运算,一次用于求注意力的参数(用于生成动态的卷积核),一次用于被卷积。
可是,写代码的时候若是直接将 个卷积核求和,会出现问题。接下来咱们先回顾一下Pytorch里面的卷积参数,而后描述一下可能会出现的问题,再讲解如何经过分组卷积去解决问题。
Pytorch卷积的实现
我会从维度的视角回顾一下Pytorch里面的卷积的实现(你们也能够手写一下,几个重点:输入维度、输出维度、正常卷积核参数维度、分组卷积维度、动态卷积维度、attention模块输出维度)。
输入:输入数据维度大小为[ ,
,
,
]。
输出:输出维度为[ ,
,
,
]。
卷积核:正常卷积核参数维度为[ ,
,
,
]。(在Pytorch中,2d卷积核参数应该是固定这种维度的)
这里咱们能够注意到,正常卷积核参数的维度是不存在 的。由于对于正常的卷积来讲,不一样的输入数据,使用的是相同的卷积核,卷积核的数量与一次前向运算所输入的
大小无关(相同层的卷积核参数只须要一份)。
可能会出现的问题
这里描述一下实现动态卷积代码的过程当中可能由于 大于1而出现的问题。
对于图中attention模块最后softmax输出的 个数,他们的维度为[
,
,
,
],能够直接.view成[
,
],紧接着
做用于
卷积核参数上(造成动态卷积)。
问题所在:正常卷积,一次输入多个数据,他们的卷积核参数是同样的,因此只须要一份网络参数便可;可是对于动态卷积而言,每一个输入数据用的都是不一样的卷积核,因此须要 份网络参数,不符合Pytorch里面的卷积参数格式,会出错。
看下维度运算[ ,
]*[
,
,
,
,
],生成的动态卷积核是[
,
,
,
,
],不符合Pytorch里面的规定,不能直接参与运算(你们能够按照这个思路写个代码看看,体会一下,光看可能感受不出来问题),最简单的解决办法就是
等于1,不会出现错误,可是慢啊!!!
总之, 大于1会致使中间卷积核参数不符合规定。
分组卷积以及如何经过分组卷积实现
大于1的动态卷积
一句话描述分组卷积:对于多通道的输入,将他们分红几部分各自进行卷积,结果concate。
组卷积过程用废话描述:对于输入的数据[ ,
,
,
],假设
为
,那么分组卷积就是将他分为两个
为
的数据(也能够用其余方法分),那么维度就是[
, 5x2 ,
,
],换个维度换下视角,[
,
,
,
],那么
为2的组卷积能够当作
的正常卷积。(若是仍是有点不了解分组卷积,能够阅读其余文章仔细了解一下。)
巧妙的转换:上面将 翻倍便可将分组卷积转化成正常卷积,那么反向思考一下,将
变为1,是否是能够将正常卷积变成分组卷积?
咱们将 大小当作分组卷积中
的数量,令
所在维度直接变为
!!!直接将输入数据从[
,
,
,
]变成[1,
,
,
],就能够用分组卷积解决问题了!!!
详细描述实现过程:将输入数据的维度当作[1, ,
,
](分组卷积的节奏);卷积权重参数初始化为[
,
,
,
,
],attention模块生成的维度为[
,
],直接进行正常的矩阵乘法[
,
]*[
,
*
*
*
]生成动态卷积的参数,生成的动态卷积权重维度为[
,
,
,
,
],将其当作分组卷积的权重[
,
,
,
](过程当中包含reshape)。这样的处理就完成了,输入数据[
,
,
,
],动态卷积核[
,
,
,
],直接是
的分组卷积,问题解决。
具体代码以下:
class Dynamic_conv2d(nn.Module):
def __init__(self, in_planes, out_planes, kernel_size, stride=1, padding=0, dilation=1, groups=1, bias=True, K=4,):
super(Dynamic_conv2d, self).__init__()
assert in_planes%groups==0
self.in_planes = in_planes
self.out_planes = out_planes
self.kernel_size = kernel_size
self.stride = stride
self.padding = padding
self.dilation = dilation
self.groups = groups
self.bias = bias
self.K = K
self.attention = attention2d(in_planes, K, )
self.weight = nn.Parameter(torch.Tensor(K, out_planes, in_planes//groups, kernel_size, kernel_size), requires_grad=True)
if bias:
self.bias = nn.Parameter(torch.Tensor(K, out_planes))
else:
self.bias = None
def forward(self, x):#将batch视做维度变量,进行组卷积,由于组卷积的权重是不一样的,动态卷积的权重也是不一样的
softmax_attention = self.attention(x)
batch_size, in_planes, height, width = x.size()
x = x.view(1, -1, height, width)# 变化成一个维度进行组卷积
weight = self.weight.view(self.K, -1)
# 动态卷积的权重的生成, 生成的是batch_size个卷积参数(每一个参数不一样)
aggregate_weight = torch.mm(softmax_attention, weight).view(-1, self.in_planes, self.kernel_size, self.kernel_size)
if self.bias is not None:
aggregate_bias = torch.mm(softmax_attention, self.bias).view(-1)
output = F.conv2d(x, weight=aggregate_weight, bias=aggregate_bias, stride=self.stride, padding=self.padding,
dilation=self.dilation, groups=self.groups*batch_size)
else:
output = F.conv2d(x, weight=aggregate_weight, bias=None, stride=self.stride, padding=self.padding,
dilation=self.dilation, groups=self.groups * batch_size)
output = output.view(batch_size, self.out_planes, output.size(-2), output.size(-1))
return output
完整的代码在github.com/kaijieshi7/D,你们以为有帮助的话,求点个星星。
纸上得来终觉浅,绝知此事要躬行。试下代码,方能体会其中妙处。
对文章有疑问或者想加入交流群,欢迎添加BBuf微信
为了方便各位获取公众号获取资料,能够加入QQ群获取资源,更欢迎分享资源
本文分享自微信公众号 - GiantPandaCV(BBuf233)。
若有侵权,请联系 support@oschina.cn 删除。
本文参与“OSC源创计划”,欢迎正在阅读的你也加入,一块儿分享。