[阅读笔记]EfficientDet

EfficientDet

文章阅读

Google的网络结构不错,老是会考虑计算性能的问题,从mobilenet v1到mobile net v2.这篇文章主要对近来的FPN结构进行了改进,实现了一种效果和性能兼顾的BiFPN,同时提供了D0-D7不一样的配置,计算量和精度都逐级增大.相比maskrcnn,retinanet,更低的计算量还能达到更好的效果.网络

BiFPN

主要有亮点:高效的双向不一样尺度的特征融合,带权重的特征融合性能

多尺度特征的融合

​ 首先是各类FPN结构的演进和比较,(a)普通的FPN只有自顶向下的链接 (b)PANet还加了自底向上的链接,(c)NAS-FPN经过搜索找到一种不规则的链接结构.(d-f)是本文探讨的结构,(d)全部的尺度使用最全的链接,计算也最复杂,(e)PANet简化,去除只有一个输入的结点,(f)本文最终的BiFPN结构orm

  • PANet效果好于FPN和NAS-FPN,计算代价也更高
  • 若是一个结点自己没有融合的特征,那么对以特征融合为目标的结构贡献就不大(why?).因此(e)中移除了P3,P7的中间结点
  • 同一尺度的输入和输出又加了一个链接,由于计算量不大.获得(f)
  • (f)中虚线框内做为一层,会重复屡次,以获得high-level feature fusion.

加权融合

从Pyramid attention networks获得启发,不一样尺度的特征的贡献是不同的,因此链接时须要加上权重,而权重经过网络学到的.blog

文章比较了三种加权的方法,Fast normalized fusion相比Softmax-based fusion方法,效果一致,但速度更快.backbone

网络结构

backbone取自ImageNet-pretrained EfficientNet.P3-P7接本文的BiFPN Layer,重复屡次.class and box分支共享权重.ci

为了适应不一样的精度和性能,文章提出了Compound Scaling方法,只需一个参数控制input size, backbone, BiFPN layers和channels, Box/class depth.获得了D0-D7不一样计算量的模型.input

实验和试验结果

  • D0与YOLOv3一样精度下,FLOPs少28x
  • D1与RetinaNet , Mask-RCNN比较,参数少8x,FLOP少25x,精度相似.
  • D7达到51mAP,同时更快参数更少.

Ablation Study

  • 相比Resnet50,EfficientNet B3 backbone提高3mAP.BiFPN比FPN提高4mAP
  • 加权比不加权链接,提高0.45mAP.
  • Fast Normalized Fusion对比Softmax,表现接近,速度快30%
相关文章
相关标签/搜索