【distill.&transfer】Deep Face Recognition Model Compression via Knowledge Transfer and Distillation

论文链接:https://arxiv.org/abs/1906.00619 作者的动机: 本篇文章提出了一种对人脸识别模型压缩的方法:基于student-teacher paradigm 的脸部识别运用;模型加速是通过降低输入图像的精度,使用相同的网络结构,从而使模型参数不减少,由于图像尺寸减少,数据储存空间也随之减少,整体架构图: 作者提出的方法: 作者使用了三种方法来提升输入低精度图像模型的性
相关文章
相关标签/搜索