超详细中文预训练模型ERNIE使用指南

做者 | 高开远,上海交通大学,天然语言处理研究方向html 最近在工做上处理的都是中文语料,也尝试了一些最近放出来的预训练模型(ERNIE,BERT-CHINESE,WWM-BERT-CHINESE),比对以后仍是以为百度的ERNIE效果会比较好,并且使用十分方便,因此今天就详细地记录一下。但愿你们也都能在本身的项目上取得进展~ git 一、A Glance at ERNIEgithub 关于E
相关文章
相关标签/搜索