新闻分类大赛task6

基于bert的文本表示方法 由于数据采用匿名形式,使用bert需要自行训练模型。 Transformer原理 Transformer是在"Attention is All You Need"中提出的,模型的编码部分是一组编码器的堆叠(论文中依次堆叠六个编码器),模型的解码部分是由相同数量的解码器的堆叠。
相关文章
相关标签/搜索