性能堪比GPT-3,但参数量仅为0.1%,LMU团队推出NLP最强文本生成模型

 2020-09-24 04:21:08 作者 | 贝爽 编辑 | 陈彩娴 模型越大,性能越佳?不一定。 在NLP领域,谈到超大模型必然想到预训练语言模型GPT-3,自今年3月份对外开放以来,其因超大模型和超强性能频频刷屏。 GPT-3拥有1750亿参数量,约有700G大小,一次训练成本高达上百万美元。1750亿是什么概念?去年2月份,OpenAI推出的GPT-2参数量为仅15亿,是它的1\116
相关文章
相关标签/搜索