JavaShuo
栏目
标签
Class-incremental Learning via Deep Model Consolidation 翻译
时间 2020-12-30
标签
深度学习
神经网络的灾难性遗忘
繁體版
原文
原文链接
Abstract 深度神经网络(DNNs)在增量学习(IL)过程中经常遭受“灾难性遗忘”——当训练目标适应于新添加的一组类时,原始类的性能会突然下降。 现有的IL方法倾向于产生一个偏向于旧类或新类的模型,除非借助旧数据的范例。 为了解决这个问题,我们提出了一种称为深度模型整合(Deep Model Consolidation, DMC)的类增量学习范式,即使在原始训练数据不可用的情况下,它也能很好
>>阅读原文<<
相关文章
1.
Deep Learning 教程翻译
2.
Deep Learning Model--CNN
3.
Wide & Deep Learning Model
4.
《Model-Agnostic Meta-Learning for Fast Adaptation of Deep Networks》 论文翻译笔记
5.
【论文翻译】Deep Residual Learning for Image Recognition
6.
【论文翻译】Deep residual learning for image recognition
7.
Wide & Deep Learning for Recommender Systems 翻译
8.
A Survey on Deep Transfer Learning 2018 翻译
9.
Deep Learning, NLP, and Representations翻译学习
10.
翻译“Learning Transferable Features with Deep Adaptation Networks”
更多相关文章...
•
Eclipse 编译项目
-
Eclipse 教程
•
Kotlin 使用命令行编译
-
Kotlin 教程
•
Java Agent入门实战(一)-Instrumentation介绍与使用
•
Java Agent入门实战(三)-JVM Attach原理与使用
相关标签/搜索
Deep Learning
consolidation
learning
翻译
model
deep
机器翻译
翻译笔记
Medium翻译
翻译贴
MySQL教程
0
分享到微博
分享到微信
分享到QQ
每日一句
每一个你不满意的现在,都有一个你没有努力的曾经。
最新文章
1.
gitlab4.0备份还原
2.
openstack
3.
深入探讨OSPF环路问题
4.
代码仓库-分支策略
5.
Admin-Framework(八)系统授权介绍
6.
Sketch教程|如何访问组件视图?
7.
问问自己,你真的会用防抖和节流么????
8.
[图]微软Office Access应用终于启用全新图标 Publisher已在路上
9.
微软准备淘汰 SHA-1
10.
微软准备淘汰 SHA-1
本站公众号
欢迎关注本站公众号,获取更多信息
相关文章
1.
Deep Learning 教程翻译
2.
Deep Learning Model--CNN
3.
Wide & Deep Learning Model
4.
《Model-Agnostic Meta-Learning for Fast Adaptation of Deep Networks》 论文翻译笔记
5.
【论文翻译】Deep Residual Learning for Image Recognition
6.
【论文翻译】Deep residual learning for image recognition
7.
Wide & Deep Learning for Recommender Systems 翻译
8.
A Survey on Deep Transfer Learning 2018 翻译
9.
Deep Learning, NLP, and Representations翻译学习
10.
翻译“Learning Transferable Features with Deep Adaptation Networks”
>>更多相关文章<<