文献阅读:Improving Multi-Task Deep Neural Networks via Knowledge Distillation for Natural Language Under

0.背景 机构:微软亚洲研究院 NLP 组与 SDRG(微软雷德蒙德语音对话研究组) 做者:Xiaodong Liu、Pengcheng He 发布地方:arxiv 面向任务:知识蒸馏 论文地址:https://arxiv.org/abs/1904.09482 论文代码:https://github.com/namisan/mt-dnnhtml 0.摘要 尽管集成学习可以提高模型性能,且目前已被普
相关文章
相关标签/搜索