谷歌开源 BERT:最早进的 NLP 预训练技术,支持中文和更多语言

谷歌本周开源了一种 NLP 预训练新技术Bidirectional Encoder Representations from Transformers(BERT)。这次发布的版本中,世界上任何人均可以在一个云 TPU 上花费大约 30 分钟,或使用单个 GPU 在几个小时内训练他们本身最早进的问答系统(或各类其余模型)。该版本包括在 TensorFlow 之上构建的源代码和许多预先训练的语言表示模
相关文章
相关标签/搜索