Rethinking ImageNet Pre-training

论文:Rethinking ImageNet Pre-training 这篇paper因为其想法比较具有颠覆性(还有作者是Kaiming He大佬),刚放出来就引发了大量的讨论。通常来说,对于绝大部分CV问题的惯常做法就是,不管三七二十一,先在ImageNet预训练一下,然后针对具体的问题fine-tuing。在这里,作者发现,从零开始训练,不用fine-tuing效果也和使用预训练一样。那就引发
相关文章
相关标签/搜索