Jigsaw pre-training:摆脱ImageNet,拼图式主干网络预训练方法 | ECCV 2020

Jigsaw pre-training以拼图的方式从检测数据集中生成用于主干网络预训练的数据集,而不需要额外的预训练数据集,如ImageNet。另外为了让网络更好的适应拼图数据,论文提出ERF-adaptive密集分类方法,能够很好地扩大预训练主干网络的有效感受域。整体而言,Jigsaw pre-training方便且高效,性能比使用ImageNet预训练模型效果要好。   来源:晓飞的算法工程笔
相关文章
相关标签/搜索