JavaShuo
栏目
标签
Knowledge Distillation
时间 2020-12-23
原文
原文链接
从模型压缩的角度调查了有关蒸馏相关的进展。与视觉应用型论文不同模型压缩的论文开源的比例并不多,相比较之下蒸馏相关工作算是开源比例大的。下面主要从是否开源或实现两方面按照发表时间列出相关论文和实现。并在有源码实现了论文中做了进一步相关方法的调查。 ##一、知识蒸馏相关论文和进展survey:(开源或有第三方实现) 2014-NIPS-Do Deep Nets Really Need to be De
>>阅读原文<<
相关文章
1.
Tutorial: Knowledge Distillation
2.
Knowledge Distillation 笔记
3.
Awesome Knowledge-Distillation
4.
Similarity-Preserving Knowledge Distillation
5.
论文Relational Knowledge Distillation
6.
Correlation Congruence for Knowledge Distillation
7.
knowledge distillation 论文阅读之:ResKD: Residual-Guided Knowledge Distillation
8.
knowledge distillation 论文阅读之:Triplet Loss for Knowledge Distillation
9.
Knowledge Distillation论文阅读(2):Learning Efficient Object Detection Models with Knowledge Distillation
10.
knowledge distillation论文阅读之:Learning from a Lightweight Teacher for Efficient Knowledge Distillation
更多相关文章...
相关标签/搜索
knowledge
distillation
0
分享到微博
分享到微信
分享到QQ
每日一句
每一个你不满意的现在,都有一个你没有努力的曾经。
最新文章
1.
安装cuda+cuDNN
2.
GitHub的使用说明
3.
phpDocumentor使用教程【安装PHPDocumentor】
4.
yarn run build报错Component is not found in path “npm/taro-ui/dist/weapp/components/rate/index“
5.
精讲Haproxy搭建Web集群
6.
安全测试基础之MySQL
7.
C/C++编程笔记:C语言中的复杂声明分析,用实例带你完全读懂
8.
Python3教程(1)----搭建Python环境
9.
李宏毅机器学习课程笔记2:Classification、Logistic Regression、Brief Introduction of Deep Learning
10.
阿里云ECS配置速记
本站公众号
欢迎关注本站公众号,获取更多信息
相关文章
1.
Tutorial: Knowledge Distillation
2.
Knowledge Distillation 笔记
3.
Awesome Knowledge-Distillation
4.
Similarity-Preserving Knowledge Distillation
5.
论文Relational Knowledge Distillation
6.
Correlation Congruence for Knowledge Distillation
7.
knowledge distillation 论文阅读之:ResKD: Residual-Guided Knowledge Distillation
8.
knowledge distillation 论文阅读之:Triplet Loss for Knowledge Distillation
9.
Knowledge Distillation论文阅读(2):Learning Efficient Object Detection Models with Knowledge Distillation
10.
knowledge distillation论文阅读之:Learning from a Lightweight Teacher for Efficient Knowledge Distillation
>>更多相关文章<<