知识蒸馏Knowledge Distillation

知识蒸馏是模型压缩的一个重要方法,本文简要介绍了什么是知识蒸馏。 知识蒸馏Knowledge Distillation 1.什么是知识蒸馏 我浅谈一些我的看法,详细内容可以参考这篇文章 [https://zhuanlan.zhihu.com/p/90049906] 简单来说,就是我们一般训练模型时,可能为了有一个好的效果,就会加大网络深度,或者用一些复杂的网络,这样参数量就会好大…那么这么一个模型
相关文章
相关标签/搜索