[预训练语言模型专题] BERT,开启NLP新时代的王者

本文为预训练语言模型专题系列第五篇 前期回顾:[萌芽时代]、[风起云涌]、[文本分类通用技巧] 、[GPT家族] 感谢清华大学自然语言处理实验室对预训练语言模型架构的梳理,我们将沿此脉络前行,探索预训练语言模型的前沿技术,红色框为前期脚印,绿色框为本期介绍,欢迎大家留言讨论交流。   BERT: Pre-training of Deep Bidirectional Transformers for
相关文章
相关标签/搜索