[预训练语言模型专题] 百度出品ERNIE合集,问国产预训练语言模型哪家强

本文为预训练语言模型专题系列第七篇 系列传送门     [萌芽时代]、[风起云涌]、[文本分类通用技巧] 、 [GPT家族]、[BERT来临]、[BERT代码浅析]   感谢清华大学自然语言处理实验室对预训练语言模型架构的梳理,我们将沿此脉络前行,探索预训练语言模型的前沿技术,红框中为已介绍的文章,绿框中为本期介绍的文章,欢迎大家留言讨论交流。   ERNIE: Enhanced Represen
相关文章
相关标签/搜索