knowledge distillation 论文阅读之:Triplet Loss for Knowledge Distillation

文章目录 Abstract Introduction Related works Metric learning knowledge distillation Proposed method Abstract 本文提出了 metric learning 结合 KD 的方法,使用成对的或者三个一组的训练样本使得 student 模型可以更加接近 teacher 模型的表现。 metric learn
相关文章
相关标签/搜索