性能堪比GPT-3,但参数量仅为0.1%,LMU团队推出NLP最强文本生成模型

公众号关注 “ML_NLP” 设为 “星标”,重磅干货,第一时间送达! 来源 | AI科技评论 作者 | 贝爽 编辑 | 陈彩娴 模型越大,性能越佳?不一定。 在NLP领域,谈到超大模型必然想到预训练语言模型GPT-3,自今年3月份对外开放以来,其因超大模型和超强性能频频刷屏。 GPT-3拥有1750亿参数量,约有700G大小,一次训练成本高达上百万美元。1750亿是什么概念?去年2月份,Open
相关文章
相关标签/搜索