深度学习论文笔记(知识蒸馏)——Distilling the Knowledge in a Neural Network

文章目录 主要工做 motivation method 实验 主要工做 提出一种知识蒸馏的方法,能够压缩模型,让小模型达到与集成亦或是大型模型类似的性能 提出一种新的集成学习方法,可让模型训练速度更快,而且是并行训练 本文只总结第一点html motivation 大型模型每每不适合线上部署,一方面是计算资源消耗大,另外一方面是响应速度慢,所以Hinton便考虑是否能够将大模型的知识迁移到小模型上
相关文章
相关标签/搜索