BERT家族:K-BERT

K-BERT 论文:《K-BERT: Enabling Language Representation with Knowledge Graph》微信 论文地址:https://arxiv.org/pdf/1909.07606v1性能 做者/机构:北京大学+腾讯编码 年份:2019.9spa K-BERT主要是为了提高BERT在知识驱动任务上微调性能,因为通用语料训练的BERT模型在知识驱动型的任
相关文章
相关标签/搜索