BERT家族:BERT-WWM

BERT-WWM 论文:《Pre-Training with WholeWord Masking for Chinese BERT》微信 论文地址:https://arxiv.org/pdf/1906.08101学习 做者/机构:讯飞+哈工大spa 年份:2019.7it BERT-WWM对Bert的改进主要体如今mask的方式上,使用全词mask。其改进点以下:pdf 与百度ERNIE相比,BE
相关文章
相关标签/搜索