《Improving Langugage Understanding by Generative Pre-Tranining》 —— GPT

目录 《Improving Langugage Understanding by Generative Pre-Tranining》 1、GPT历史意义 2、无监督预训练——通过大量未标记语料学习网络的初始参数 3、Supervised Fine-Tuning 4、Task-specific input transformations 5、实验结果 5.1 模型结构 5.2 GPT模型在不同任务上
相关文章
相关标签/搜索