Structured Knowledge Distillation for Semantic Segmentation

    本文通过知识蒸馏的思想利用复杂网络(Teacher)来训练简单网络(Student),目的是为了让简单的网络能够达到和复杂网络相同的分割结果。为了得到两个网络相同的结果就要保证两个网络在训练过程中的一致性。因此通过设计训练过程中的损失函数来是两者达到一致效果。      由于整个模型的过程是希望简单网络(Student)能够将复杂网络(Teacher)中的只是学习过来,因此Teacher网
相关文章
相关标签/搜索