BERT家族:ERNIE

ERNIE 论文:《ERNIE: Enhanced Representation from kNowledge IntEgration》 论文地址:https://arxiv.org/pdf/1904.09223v1 作者/机构:百度 年份:2019.3 ERNIE对Bert的改进主要体现在mask的方式上,将中文单字的mask改为连续的实体词和短语mask,事Bert能够学习到真实世界的语义知识
相关文章
相关标签/搜索