GPT-3:Language Models are Few-Shot Learners 论文解读

paper连接:https://arxiv.org/abs/2005.14165git github连接:https://github.com/openai/gpt-3github 摘要 经过对大量文本进行预训练,而后对特定任务进行微调,最近的工做证实了在许多NLP任务和基准方面的巨大收获。尽管在结构上一般与任务无关,可是此方法仍然须要特定于任务的微调数据集,该数据集包含成千上万个示例。相比之下,
相关文章
相关标签/搜索