BERT家族:SemBert

SemBert 论文:《Semantics-aware BERT for Language Understanding》 论文地址:https://arxiv.org/pdf/1909.02209 作者/机构:上海交通大学+云从科技 年份:2019.9 SemBERT是将语义角色标注(SRL,Semantic Role Labeling)信息结合进去,来提高BERT的性能。K-BERT对BERT的
相关文章
相关标签/搜索