Tutorial: Knowledge Distillation

概述 Knowledge Distillation(KD)通常指利用一个大的teacher网络做为监督,帮助一个小的student网络进行学习,主要用于模型压缩。 其方法主要分为两大类web Output Distillation Feature Distillation Output Distillation Motivation 主要拉近teacher和student最终输出的距离,参考论文:
相关文章
相关标签/搜索