零基础学nlp【7】 BERT ,transformer应用,预训练模型

零基础学nlp【7】 BERT 论文:Devlin J, Chang M W, Lee K, et al. Bert: Pre-training of deep bidirectional transformers for language understanding[J]. arXiv preprint arXiv:1810.04805, 2018.web 1 前言 原本今天准备写 convol
相关文章
相关标签/搜索