GPT的前世今生

GPT、GPT-2、GPT-3对比 一、GPT 1.无监督pre-training 2. 有监督fine-tuning 二、GPT-2 三、GPT-3 一、GPT 简单来说,GPT的底层架构是transformer,是由pre-training和fine-tuning两部分构成的。 1.无监督pre-training transformer里有encoder层和decoder层,而GPT里主要用的
相关文章
相关标签/搜索