GPT模型:Improving Language Understanding by Generative Pre-Training

参考链接 https://www.cs.ubc.ca/~amuham01/LING530/papers/radford2018improving.pdf https://github.com/openai/finetune-transformer-lm 论文模型概述 论文模型训练过程包括两步: 第一步: 在大预料库训练高容量的语言模型; 第二步: 要特殊任务的有标签的数据集上微调预训练的语言模型
相关文章
相关标签/搜索