GPT与GPT-2

GPT与GPT-2 GPT-2与GPT一样,都使用的是单向语言模型   一、GPT GPT的底层架构是transformer,是由pre-training和fine-tuning两部分构成的。 如果GPT做成双向的,那就没Bert什么事了(不过Bert的Masked LM和Next Sentence Prediction的思想也是功不可没哒~)。之所以这么说,是因为Bert底层架构也是transf
相关文章
相关标签/搜索