知识蒸馏Knowledge Distillation

知识蒸馏是模型压缩的一个重要方法,本文简要介绍了什么是知识蒸馏。git 知识蒸馏Knowledge Distillation 1.什么是知识蒸馏 我浅谈一些个人见解,详细内容能够参考这篇文章 [https://zhuanlan.zhihu.com/p/90049906]web 简单来讲,就是咱们通常训练模型时,可能为了有一个好的效果,就会加大网络深度,或者用一些复杂的网络,这样参数量就会好大…那么
相关文章
相关标签/搜索