DATASET DISTILLATION 论文总结

  以往的方法是不断地输入数据集,通过反向传播迭代的方法,更新网络权重,从而达到想要的训练结果。这篇论文提供了一个新的角度,对于分类网络来说,首先根据原来的数据集和网络的初始化权重(固定或随机),通过反向传播迭代更新新的数据集(生成的新数据集)。来形成新的几乎等于(大于等于)分类数量的数据集,再经过有限的几次迭代以后就可以达到比较高的精度。 新生成的蒸馏数据特别像噪声。 按照论文的章节安排,重点说
相关文章
相关标签/搜索