FractalNet: Ultra-Deep Neural Networks without Residuals
ICLR 2017
Gustav Larsson, Michael Maire, Gregory Shakhnarovich网络
文章提出了什么(What)学习
- ResNet提高了深度网络的表现,本文提出的分形网络也取得了优秀的表现,经过实验表示,残差结构对于深度网络来讲不是必须的。
- ResNet缺少正则方法,本文提出了drop-path,对子路径进行随机丢弃
为何有效(Why)3d
- 分形网络不像resNet那样连一条捷径,而是经过不一样长度的子路径组合,网络选择合适的子路径集合提高模型表现
- drop-path是dropout(防止co-adaption)的自然扩展,是一种正则方法,能够防止过拟合,提高模型表现
- drop-path提供了很好的正则效果,在不用数据加强时也取得了优秀的结果
- 经过实验说明了带drop-path训练后的总网络提取的单独列(网络)也能取得优秀的表现。
- 分形网络体现的一种特性为:浅层子网提供更迅速的回答,深层子网提供更准确的回答。
分形网络是怎么作的(How)
blog
- 图中以粉红色的卷积层Convolution为基础层,实际上能够为其它类型的层或者子网络;绿色的Join层通常能够用相加或concat,这里采起了相加而后取平均,所以全部基础层可使用同样的channel数量
- $ f_{C}(z) $ 中C表示列数,z表示输入,C=1表示一个基础层
- $ f_{C+1}(z) $ 则如图所示,在右边叠加两个$ f_{C}(z) $ ,左边接一个基础层
- 以此类推,当C等于4的时候,能够获得图中的$ f_{4}(z) $
- $ f_{4}(z) $做为一个block中,如图中最右边的网络所示,完整的网络接了5个block,block之间用Pool层链接,最后是预测层
- 令block个数为B,每一个block中的列数为C,网络的总深度为$ B\cdot 2^{C-1} $
两种drop-path
it
实验训练的时候,mini-batch之间交叉使用Local和Globalio
- Local:对join层的输入dropout,可是至少保证要有一个输入
- Global: 对于整个网络来讲,只选择一条路径,且限制为某个单独列,因此这条路径是独立的强预测路径
模型对比的实验
基础
- +表示使用了水平镜像翻转和平移,++表示使用了更多的数据加强,实验主要和ResNet对比
- 用drop-path训练,能够从网络提取最深的单独列,在表格数据中能够看出也取得了不错的表现
- 不使用数据加强时,分形网络的表现超过了ResNet,能够看出分形网络更不容易过拟合
- 使用数据加强时,分形网络取得了和ResNet变种差很少的表现
- 不使用数据加强的时候,drop-path提高了表现
- 使用数据加强的时候,drop-path提高或者没有降低太大的表现
20层分形网络的模型细节扩展
- 每一个卷积层后面加了BN(先卷积,再BN,再relu激活)
- B=5,C=3
- 训练集都是32*32*3的图像,使用2*2的Max-pooling,通过5次下采样后32*32会变成1*1,最后的预测层使用softmax
- 为了实现方便,对于每个block,调换了最后面的pool和join的顺序
- 五个block的卷积核数量默认为64,128,256,512,512
- 每一个block最后的dropout几率设为0,0.1,0.2,0.3,0.4
- 整个网络的local drop-path设为0.15
- caffe实现,学习率为0.02,momentum为0.9,batchsize为100,使用Xavier初始化参数
- CIFAR-10/CIFAR-100迭代了400轮,SVHN迭代了20轮
- 每当“剩余epoch数减半”时,学习率除以10(好比剩余epoch为200时,剩余epoch为100时,剩余epoch为50时候)
其它实验

sso
- 分形网络到了160层开始出现退化
- 日常的网络到了40层就出现了退化,到了160层不能收敛
- 使用了drop-path的分形网络提取的单独列(网络)比日常的网络取得了更优的表现,并且克服了退化问题(日常网络40层就退化)
- 这里的实验减少了每一个block的channels,为16,32,64,128,128,batchsize设置为50
学习曲线
channel
- 40层分形网络的学习曲线中,能够看到Col#4 开始学习时很慢,当其它子网学习趋近稳定时,Col#4学习速度提高
- 左图日常网络的学习曲线中没有这种性质(蓝色虚线)
- 假设分形网络会触发和深度监督,横向的“学生-教师”信息流相似的效果,那么能够这样分析,当分形网络依赖于单独使用Col#3来输出,当drop-path丢弃Col#3的时候,网络则会促进Col#4的学习,使得Col#4学的东西能代替Col#3,这是一个迷你的学生-教师问题
总结
- 论文的实验说明了路径长度才是训练深度网络的须要的基本组件,而不仅仅是残差块
- 分形网络和残差网络都有很大的网络深度,可是在训练的时候都具备更短的有效的梯度传播路径
- 分形网络简化了对这种需求(更短的有效的梯度传播路径)的知足,能够防止网络过深
- 多余的深度可能会减慢训练速度,但不会损害准确性