博客:blog.shinelee.me | 博客园 | CSDN网络
Group Convolution分组卷积,最先见于AlexNet——2012年Imagenet的冠军方法,Group Convolution被用来切分网络,使其在2个GPU上并行运行,AlexNet网络结构以下:学习
在介绍Group Convolution前,先回顾下常规卷积是怎么作的,具体能够参见博文《卷积神经网络之卷积计算、做用与思想》。若是输入feature map尺寸为\(C*H*W\),卷积核有\(N\)个,输出feature map与卷积核的数量相同也是\(N\),每一个卷积核的尺寸为\(C*K*K\),\(N\)个卷积核的总参数量为\(N*C*K*K\),输入map与输出map的链接方式以下图左所示,图片来自连接:spa
Group Convolution顾名思义,则是对输入feature map进行分组,而后每组分别卷积。假设输入feature map的尺寸仍为\(C*H*W\),输出feature map的数量为\(N\)个,若是设定要分红\(G\)个groups,则每组的输入feature map数量为\(\frac{C}{G}\),每组的输出feature map数量为\(\frac{N}{G}\),每一个卷积核的尺寸为\(\frac{C}{G} * K * K\),卷积核的总数仍为\(N\)个,每组的卷积核数量为\(\frac{N}{G}\),卷积核只与其同组的输入map进行卷积,卷积核的总参数量为\(N * \frac{C}{G} *K*K\),可见,总参数量减小为原来的 \(\frac{1}{G}\),其链接方式如上图右所示,group1输出map数为2,有2个卷积核,每一个卷积核的channel数为4,与group1的输入map的channel数相同,卷积核只与同组的输入map卷积,而不与其余组的输入map卷积。.net
以上。3d