ICML 2020 | Google提出最强生成式摘要预训练模型——天马

©PaperWeekly 原创 · 作者|蔡杰 学校|北京大学硕士生 研究方向|QA 论文标题:PEGASUS: Pre-training with Extracted Gap-sentences for Abstractive Summarization 论文来源:ICML 2020 论文链接:https://arxiv.org/abs/1912.08777 代码链接:https://githu
相关文章
相关标签/搜索