Class-incremental Learning via Deep Model Consolidation 翻译

Abstract 深度神经网络(DNNs)在增量学习(IL)过程中经常遭受“灾难性遗忘”——当训练目标适应于新添加的一组类时,原始类的性能会突然下降。 现有的IL方法倾向于产生一个偏向于旧类或新类的模型,除非借助旧数据的范例。 为了解决这个问题,我们提出了一种称为深度模型整合(Deep Model Consolidation, DMC)的类增量学习范式,即使在原始训练数据不可用的情况下,它也能很好
相关文章
相关标签/搜索