Some Papers about BERT in Text Classifition, Data Augmentation and Document Ranking(一)

BERT用于各项任务示意图: 从BERT出现到现在的广泛使用,以BERT为代表的预训练模型所提出的pre-traing + fine-tune两阶段的方法逐渐成为了很多涉及文本数据领域处理问题的新范式,例如文本分类、阅读理解、数据增广、问答系统和信息检索等。同时为了更好的提升BERT在所处理任务上的性能,以及更好的减小模型容量的同时又不至于损失模型的性能,不同的研究人员纷纷提出了BERT的多种变体
相关文章
相关标签/搜索