新闻文本分类 Task6 基于深度学习的文本分类3

学习目标 了解Transformer的原理和基于预训练语言模型(Bert)的词表示 学会Bert的使用,具体包括pretrain和finetune 1. Attention 将有限的注意力集中在重要的信息上,从而节省资源,快速获取最有效的信息。这就是简单的attention is all you need。 个人理解: 有个图书馆(source),里面有很多的书籍,为了方便管理我们给他们做了标签,
相关文章
相关标签/搜索