kaggle比赛tweet_sentiment_extraction,带你上0.71分数

文章目录 1.前言 2.代码分析 2.1 加载必要的库 2.2 加载比赛中的数据 2.3 构造dataset生成器 2.4 Roberta模型 2.5 Warmup和学习率指数降低 2.6 focal loss 2.7 joblib并行化训练 1.前言 在这个比赛已经折腾了1个多月了,终于分数有点上升。在LB分数榜上能够取得0.71的分数,模型主要用到Roberta模型。主要使用的技术以下:pyt
相关文章
相关标签/搜索