15亿参数的NLP模型究竟有多强大?有人用它生成了一部《哈利·波特》

源 / 新智元程序员 上周,OpenAI 发表了一个超大规模的 “通用”NLP 模型 ——GPT-2。这个模型是 OpenAI 去年发布的无监督 NLP 模型 GPT 的直接拓展,基于Transformer,拥有 15 亿参数,使用含有 800 万网页内容的数据集训练。算法 GPT-2 能够生成连贯的文本段落,刷新了 7 大数据集基准,而且能在未经预训练的状况下,完成阅读理解、问答、机器翻译等多项
相关文章
相关标签/搜索