Like What You Like: Knowledge Distill via Neuron Selectivity Transfer论文初读

目录 摘要 引言 相关工作   深度网络压缩与加速   知识蒸馏   领域自适应 准备知识   一些符号   MMD(Maximum Mean Discrepancy) 神经元选择性迁移   出发点   公式   讨论 实验   在分类数据集上   在检测数据集上 讨论   不同KT的分析   MMD以外的方法 结论 摘要 将知识迁移看成一种分布匹配问题 通过用一种新的损失函数最小化teacher
相关文章
相关标签/搜索