深度学习论文笔记(增量学习)——Learning without Memorizing

文章目录 main work motivation method 实验 main work 提出了Attention distillation loss,与knowledge distillation loss混合使用训练神经网络,在不需examplar的前提下达到较好的准确率。 motivation CNN准确定位到与类别相关的区域后,提取的特征才更具有区分性,常见的distiilation l
相关文章
相关标签/搜索