论文阅读 A Gift from Knowledge Distillation: Fast Optimization

2017年CVPR论文A Gift from Knowledge Distillation:Fast Optimization, Network Minimization and Transfer Learning。 论文地址: GitHub: 摘要 提出了将蒸馏的知识看作成一种解决问题的流,它是在不同层之间的feature通过内积计算得到的 这个方法有三个好处:   student网络可以学的更
相关文章
相关标签/搜索