NLP系列——(10)BERT

BERT 一、Transformer 1.1 Encoder-Decoder框架 1.2 Transformer模型架构 二、BERT 2.1 BERT 原理 2.2 BERT模型总体结构 2.3 BERT模型输入 2.4 BERT模型预训练任务 2.4.1 Masked LM 2.4.2 Next Sentence Prediction 2.5 模型比较 三、BERT实现文本分类 Bert之所以
相关文章
相关标签/搜索