谷歌 | 最新110亿参数的T5模型17项NLP任务霸榜SuperGLUE!

  新智元报道   来源:github 谷歌在最新发布的论文《Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer》提出了一个新的预训练模型:T5。该模型涵盖了问题解答,文本分类等方面,参数量达到了110亿!一举超越ALBERT,刷新Glue榜单,成为全新的NLP SOTA预训练模型。 榜
相关文章
相关标签/搜索