AAAI 2020 | 反向R?削弱显著特征为细粒度分类带来提升

论文提出了类似于dropout作用的diversification block,通过抑制特征图的高响应区域来反向提高模型的特征提取能力,在损失函数方面,提出专注于top-k类别的gradient-boosting loss来优化训练过程,模型在ResNet-50上提升3.2%,算法思路巧妙,结构易移植且效果也不错,值得学习 论文:Fine-grained Recognition: Accounti
相关文章
相关标签/搜索