Transformer的原理

前言 这是第10个任务,本次任务主要是一下几个方面: Transformer的原理 BERT的原理 利用预训练的BERT模型将句子转换为句向量,进行文本分类 本文主要接受Transformer 原理,2017年,Google发表论文《Attention is All You Need》,提出经典网络结构Transformer,全部采用Attention结构的方式,代替了传统的Encoder-Dec
相关文章
相关标签/搜索