Rethinking ImageNet Pre-training

前言 这篇文章是何恺明组做的一个偏实验的工作,主要是探究ImageNet预训练的模型,在迁移到其他任务比如目标检测,分割等会不会比从头训练模型的要更好。可以总结一下就是 在数据集充分的条件下,各个任务里,从头训练的效果并不比在ImageNet预训练过的要差 从头训练的模型需要更多的迭代次数,才能追上预训练模型Finetune的结果 ImageNet预训练的作用更多的是加速模型收敛,但不意味最后模型
相关文章
相关标签/搜索