Mixup:Beyond Empirical Risk Minimization

  Abstract 大规模神经网络功能很强大,但是显现出了不如预期的一些表现,例如对攻击样本的记忆力与敏感度。本文中,我们提出了一种缓解issues的学习原则称为mixup。总的来说,mixup通过对样本对及标签进行凸融合来训练深度神经网络。这样使得神经网络在训练任务调整成为它最擅长的简单线性学习。我们在ImageNet-2012,CIFAR-10,CIFAR-100,Google commad
相关文章
相关标签/搜索