[预训练语言模型专题] 银色独角兽GPT家族

本文为预训练语言模型专题系列第四篇 前期回顾:[萌芽时代]、[风起云涌]、[文本分类通用训练技巧] 感谢清华大学自然语言处理实验室对预训练语言模型架构的梳理,我们将沿此脉络前行,探索预训练语言模型的前沿技术,红色框为前期脚印,绿色框为本期介绍,欢迎大家留言讨论交流! SHOCKING 在具体看论文之前,我们先来看看GPT-2,也是GPT家族巨人的惊人表现做一个开胃菜。在一个生成式任务上,OpenA
相关文章
相关标签/搜索