GPT2文本生成有问题?这里有些潜在解决思路

作者 | Leo Gao 译者 | 凯隐 编辑 | 夕颜 出品 | AI科技大本营(ID: rgznai100)  【导读】在过去的一年中,人们对文本生成模型的兴趣重新燃起,这在很大程度上要归功于GPT2,它主要展示了使用更大模型、更大数据和更大计算量的Transformer架构的有效性。值得注意的是,在没有经过训练的情况下,该模型在几个语言建模数据集上就获得了SOTA结果,这显示了其惊人的泛化能
相关文章
相关标签/搜索