论文浅尝 | Enriching Pre-trained Language Model with Entity Information for Relation Classification

论文针对句子级别的关系抽取问题提出了一种结合BERT预训练模型和目标实体信息的模型。 1. 文章主要贡献 提出将 BERT 用在了关系抽取任务, 探索了实体和实体位置在预训练模型中的结合方式。 可以通过在实体前后加标识符得方式表明实体位置, 代替传统位置向量的做法,论文也证实了这种方法得有效性。 2. 论文模型详解 2.1 数据预处理 1)针对输入进来的句子,需要在句首增加[cls]符号 2)在第
相关文章
相关标签/搜索