Squeeze Excitation Module 对网络的改进分析

  Squeeze-and-Excitation Networks服务器

  SE-net 来自于Momenta 孙刚团队网络

  SE的设计思路:ide

    从卷积操做的实际做用来考虑,conv 把局部空间信息和通道信息组合起来,组合以后造成FM上的值,以前大部分都是空间上作的。函数

    对channel考虑的少,可是卷积自己就能够学到通道之间的组织信息,为何还要在从新学一遍呢?性能

    那思考densenet显式链接各层,resnet能够连到,DN为什么要再连一次?学习

    咱们指望特征学习能力,可是须要显式建模来帮助学习测试

    

  1 SE-net的灵感google

  VGG 网络将 Alexnet 7*7 和 5*5  替换成了3*3 的卷积核spa

  Wide Resnet以下右:设计

  

 

   除此以外,GoogleNet 内部inxeption 实际使用的是一个多尺度 的结构。

  googlenet 是将卷积在空间维度上进行组合

  ResNeXt 是将左边的分支结构极端化,在不一样的通道上进行group conversation,最后concat

 

  咱们但愿conv filter 能够在local receptive fields的基础上 融合 channel-wise 和 spatial 的信息做融合。

  

  下图左边inception将卷积核在空间上进行了组合,右图inside-outsideNetwork 将不一样方向的卷积在空间上组合到了一块儿

  

  

  2 Squeeze-and-Excitation Networks

  网络是否能够在通道关系方面作加强呢?

  动机:

  对于通道内部依赖作了显示的建模,选择强化有用的特征,抑制无用的特征

  

  SE module 结构:

  Ftr:X到U的卷积过程 ,可是通道之间的关系并无发生变化:

  Fsq:将每一个通道作了一个squeeze操做,将每一个通道表示成了一个标量,获得per channel的描述

  Fex:将per channel标量进行“激活”,能够理解为算出了per channel的W

  最后将per channel的W乘回到原来的feature map上获得加权后的channel,将channel 作了恰当的融合

  SE-Module 能够用于网络的任意阶段

  squeeze 操做保证了,在网络的早期感觉野就能够大到全图的范围。

  

  SE-inception Module and SE-ResNet Module:

  下图左边将Inception Module 转化成SE 模块,在此操做中使用squeeze操做是Global polling 操做,也可使用Global conv 操做,可是考虑到feature map 比较大的时候,G C 的W 也会比较大,因此选择用pooling,一种max 一种average plooing

  最终选择的是average pooling,主要的考虑是,若是作检测任务,输入FM 大小是变化的,average 基本能够保持能量。若是用max FM 越大,能量不能保持,好比小的FM 求max 和 大的 FM 求 max 在测试时候并不等价。因此选择average pooling。获得1*1*c的向量。

  后面能够接FC,可是为了减小参数,作了降维操做,增长了一个降维的系数r,输出 1*1*C/r

  后接RELU,后面在作一个升维操做,获得1*1*C

  最终使用S函数进行激活。

  

   

  能够看到参数量主要取决与FC,在实验时r通常取16,经验值!

  右图中,是resnet module,改造和inception分支很相似。

  Architectures:

  fc[16,256]表示,r 降维系数是16,会先降到16,而后升到256

  在SE-ResNeXt-50中 (32*4d)中,将3*3卷积变成了group卷积,c取32 

  

  模型cost分析:

  1 ,参数量

  2 , 运算速度

  参数量主要来自于在block内部增长的FC,会增长3%-10%的参数量 ,通常是10%,可是在某些状况下,网络在靠近输出的状况下

  做者把7*7上的FC SE去掉了,获得总参数占3%,可是在TOP5的精度损失不到1%,很是的Cost-effective

  其余的BN,RELU,POOLING 理论的计算量少。可是全链接对比卷积引发的计算量也不多

  

  理论上计算量增长的计算量不到1%

  实际inference GPU 时间增长了10%,分析缘由多是卷积核频繁操做, GPU运算不太友好,大size POOling的问题

  CPU 测试和理论分析值接近。

  训练的状况:

  内部服务器:

  Momenta ROCS

  先对类别进行sample,再对类别内的图片进行sample,能够确保看到每一个类别内图片几率的都是相同的

   

  组员在以前场景分类用的小技巧,不是对图像随机采样,而是先对类别进行采样,再在每一个特定类别中选去一张图像

  能够保证数据见到的很平衡的,提升训练结果。

  训练超参数:

  任何网络保证每张卡能够处理32张图像,batchsize:1024 / 2048.当batch_size 是2048时候,LR能够调到1 

  实验部分:

  

 

能够看到添加SE之后计算量并无增长不少。  

   

红色是SE

  

  BN-inception 是一个直线型的网络,没有skip-connection:(想验证是不是只能用在skip-layer中)

  

  

    下图:两个小FC中的第一个,下采样的比例选取规则,50层的网路。在1/32的时候,性能仍是有些差别,虽然size小了。

     

 

     下图是实际在参加比赛时,imagenet的结果:

    SE-ResNeXt-152 (64 * 4d)作的改进技巧:

    1:把7*7 拆解成3个3*3连续卷积 (最先在inception中出现)

    2:loss (label_smoothing)

    3: 在训练的最后几个epoch,把BN fix住了,正常状况BN须要一块儿学习。5-10w次

    由于,BN 只跟batch的数据相关,若是BN和其余W一直变的话很难学到一致的程度,fixBN,就能够保证 最后在训练和测试算出的的均值和方差都是一致的。

    

    

    Excitation的分布结果:

    取得基本都是每一个stage最后的layer。在浅层网络学到的比较commen,share FM,在深层之后能够学到spacial

    

    下图有意思的是:

    基本大部分线都是1,都是重合的,激活是饱和状态,个别是0.若是激活全部的值是1的话,其实scale以后没有任何变化,能够认为就是原始的resnet moudle。 换句话说:这个SE模块没有起到任何做用,能够摘除掉

    

    不一样类别的激活基本都是相同的,只是浮值变化,这些浮值能够经过分类器的scale进行调节,上层+这层的SE起的做用不大,由于趋势相同,可能会退化成标准网络

    结果把最后一个SE模块摘掉对总体影响不大。

 

  比赛结果:

    

  SE网络在Mob和Shufflenet中进行实验:在mobilenet上有3%的提高在shuffle上2%的提高,size 多一点点。

  

    

  场景分类上的结果:

    加了SE以后发现,显著超过以前的结果:

  

  FAQ

    在不把SEfix的状况下有多大的收益?

    只是竞赛的时候作了fix,追求极致的结果/

     每个通道求一个权值,逐通道的乘上去,设计方式在性能和精度trade off 

    W*H*C 如何映射到C维向量上?

    map 均值对每一个feature map

相关文章
相关标签/搜索