李宏毅nlp学习笔记14:Multi-lingual BERT

1.Multi-lingual BERT:把多种语言丢到bert模型中进行训练。 2.惊奇的效果:可以做到跨语言学习。 用英文的QA语料进行训练,然后可以对模型做中文的QA。 而且效果要好于直接用中文训练的其他模型。 翻译语料进行训练的结果有时候还比不上直接Multi-lingual BERT的结果: 其他的, 会做英文的词性标记,就也会做中文的了。 会做英文的ner识别,就也会做中文的了。 3.
相关文章
相关标签/搜索