Google的网络结构不错,老是会考虑计算性能的问题,从mobilenet v1到mobile net v2.这篇文章主要对近来的FPN结构进行了改进,实现了一种效果和性能兼顾的BiFPN,同时提供了D0-D7不一样的配置,计算量和精度都逐级增大.相比maskrcnn,retinanet,更低的计算量还能达到更好的效果.网络
主要有亮点:高效的双向不一样尺度的特征融合,带权重的特征融合性能
首先是各类FPN结构的演进和比较,(a)普通的FPN只有自顶向下的链接 (b)PANet还加了自底向上的链接,(c)NAS-FPN经过搜索找到一种不规则的链接结构.(d-f)是本文探讨的结构,(d)全部的尺度使用最全的链接,计算也最复杂,(e)PANet简化,去除只有一个输入的结点,(f)本文最终的BiFPN结构orm
从Pyramid attention networks获得启发,不一样尺度的特征的贡献是不同的,因此链接时须要加上权重,而权重经过网络学到的.blog
文章比较了三种加权的方法,Fast normalized fusion相比Softmax-based fusion方法,效果一致,但速度更快.backbone
backbone取自ImageNet-pretrained EfficientNet.P3-P7接本文的BiFPN Layer,重复屡次.class and box分支共享权重.ci
为了适应不一样的精度和性能,文章提出了Compound Scaling方法,只需一个参数控制input size, backbone, BiFPN layers和channels, Box/class depth.获得了D0-D7不一样计算量的模型.input