后BERT时代:15个预训练模型对比分析与关键点探索(附连接)

来源:知乎面试 做者:JayLou缓存 本文约7800字,建议阅读10分钟。网络 本文对ELMo以来的15个表明性的预训练语言模型进行了多维度的对比和分析。框架 前言svg 在以前写过的《NLP的游戏规则今后改写?从word2vec, ELMo到BERT》一文中,介绍了从word2vec到ELMo再到BERT的发展路径。而在BERT出现以后的这大半年的时间里,模型预训练的方法又被Google、Fa
相关文章
相关标签/搜索