NLP史上最全预训练模型汇总

目录 一、不同视角下的预训练语言模型对比 二、预训练语言模型的基础:特征抽取机制+语言模型的分类 三、单向模型回顾+内核机制探究 四、BERT内核机制探究 五、BERT系列模型进展介绍 六、XLNet的内核机制探究 参考文献 前言 在小夕之前写过的《NLP的游戏规则从此改写?从word2vec, ELMo到BERT》一文中,介绍了从word2vec到ELMo再到BERT的发展路径。而在BERT出现
相关文章
相关标签/搜索