知识蒸馏(Knowledge Distillation)、半监督学习(semi-supervised learning)以及弱监督学习(weak-supervised learning)

一.知识蒸馏 1.知识蒸馏 (1)首先,我先强调一下蒸馏学习其实本质是模型压缩!模型压缩!模型压缩!S模型有的精度高于T模型,有的低于T模型,但是可以很好地压缩网络体积。 (2)知识蒸馏是由Hiton的Distilling the Knowledge in a Neural Network 论文地址提出,并通过引入与教师网络(Teacher Network:网络结构复杂,准确率高 一般是我们的 B
相关文章
相关标签/搜索