【CVPR2020 论文翻译】 | Explaining Knowledge Distillation by Quantifying the Knowledge

本篇基于有道翻译进行翻译的。为了自己阅读翻遍, 公式部分处理不太好。 论文原文链接:https://arxiv.org/abs/2003.03622 Abstract 本文提出了一种通过对深度神经网络中间层中与任务相关和任务无关的视觉概念进行量化和分析来解释知识蒸馏成功的方法。更具体地说,提出以下三个假设。 知识蒸馏使DNN比从原始数据中学习更多的视觉概念 知识蒸馏确保了DNN易于同时学习各种视觉
相关文章
相关标签/搜索