[机器学习]天然语言处理:GPT-2模型训练finetunning

GPT-2模型主要用于根据上下文,预测下一个最有可能的词汇。 基于开源的Transformers库,用GPT-2模型以无监督学习的方式训练文本:git ①下载开源库:transformers ②根据要求安装tensorflow2.0、Pytorch1.0+等依赖的训练工具; ③若是须要使用GPU训练,还须要安装CUDA10.0、CUDNN7.x等组件; ④训练:transformers提供了方便的
相关文章
相关标签/搜索