BERT家族:spanBERT

SpanBERT 论文:《SpanBERT: Improving Pre-training by Representing and Predicting Spans》微信 论文地址:https://arxiv.org/pdf/1907.10529性能 做者/机构:华盛顿大学+普林斯顿大学学习 年份:2019.8spa SpanBERT对Bert的改进主要体如今对mask方式的改进,丢弃NSP任务和
相关文章
相关标签/搜索