微软发布史上最大NLG模型:基于Transformer架构,170亿参数加持

2020-02-11 18:50 导语:史上最大! 近年来,BERT、GPT-2等深度学习语言模型,极大地提高了问答、摘要、人机对话等下游自然语言处理任务的性能。 而今天,微软研究院重磅发布了有史以来最大的基于Transformer架构的语言生成模型 Turing-NLG。此模型的参数高达170亿,是英伟达的Megatron(也就是现在第二大Transformer模型)的两倍,是OpenAI的GP
相关文章
相关标签/搜索