15亿参数的NLP模型究竟有多强大?有人用它生成了一部《哈利·波特》

源 / 新智元 上周,OpenAI 发表了一个超大规模的 “通用”NLP 模型 ——GPT-2。这个模型是 OpenAI 去年发布的无监督 NLP 模型 GPT 的直接拓展,基于Transformer,拥有 15 亿参数,使用含有 800 万网页内容的数据集训练。 GPT-2 可以生成连贯的文本段落,刷新了 7 大数据集基准,并且能在未经预训练的情况下,完成阅读理解、问答、机器翻译等多项不同的语言
相关文章
相关标签/搜索