论文阅读笔记:《自然语言处理中的预训练模型》

Pre-trained Models for Natural Language Processing: A Survey 写在前面: 随着2018年ELMo、BERT等模型的发布,NLP领域进入了“大力出奇迹”的时代。采用大规模语料上进行无监督预训练的深层模型,在下游任务数据上微调一下,即可达到很好的效果。曾经需要反复调参、精心设计结构的任务,现在只需简单地使用更大的预训练数据、更深层的模型便可解
相关文章
相关标签/搜索