BERT中文翻译

BERT:语言理解的深层双向transformer的预训练 原文链接: BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding 目录 BERT:语言理解的深层双向transformer的预训练 1.介绍 2.相关工作 2.1 基于无监督特征的方法 2.2 非监督微调方法 2.3 从监督数据中转
相关文章
相关标签/搜索