BERT家族:ALBERT

ALBERT 论文:《ALBERT: A Lite BERT For Self-Supervised Learning Of Language Representations》微信 论文地址:https://arxiv.org/pdf/1909.11942网络 做者/机构:google性能 年份:2019.9大数据 采用了全新的参数共享机制,反观其余升级版BERT模型,基本都是添加了更多的预训练任
相关文章
相关标签/搜索