BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding

BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding:https://arxiv.org/pdf/1810.04805.pdf 摘要 我们介绍了一种新的**语言表示模型BERT**,它表示转换器的双向编码器表示。与最近的语言表示模型不同(Peters et al., 2018; Radfor
相关文章
相关标签/搜索