论文翻译:BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding

BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding BERT:用于语言理解的深度双向变换器的预训练 摘要 我们引入了一个新的语言表示模型BERT,它代表了来自Transformers的双向编码器表示。与最近的语言表示模型不同(Peters等人,2018a; Radford等人,2018),
相关文章
相关标签/搜索