资源分享 | 知识蒸馏总结、应用与扩展(2015-2019)

点击我爱计算机视觉标星,更快获取CVML新技术 知识蒸馏示意图 知识蒸馏因为2015年Hinton的著名论文 Distilling the knowledge in a neural network 而被更多人所认知,是模型参数压缩、计算加速的重要方法,尤其在将深度神经网络模型部署到移动端、IOT等边缘设备上时。 在华东师范大学读书的Yuang Liu 同学最近对知识蒸馏方向近几年(2015-20
相关文章
相关标签/搜索