几个与BERT相关的预训练模型分享-ERNIE,XLM,LASER,MASS,UNILM

基于Transformer的预训练模型汇总 1. ERNIE: Enhanced Language Representation with Informative Entities(THU) 特点:学习到了语料库之间得到语义联系,融合知识图谱到BERT中,本文解决了两个问题,structured knowledge encoding 和 Heterogeneous Information Fusi
相关文章
相关标签/搜索