Tutorial: Knowledge Distillation

概述 Knowledge Distillation(KD)一般指利用一个大的teacher网络作为监督,帮助一个小的student网络进行学习,主要用于模型压缩。 其方法主要分为两大类 Output Distillation Feature Distillation Output Distillation Motivation 主要拉近teacher和student最终输出的距离,参考论文:Dis
相关文章
相关标签/搜索